2016년 1월 다보스 세계경제포럼에서 ‘4차 산업혁명 시대 도래’를 공표함과 더불어 알파고와 이세돌 9단의 대국 이후 국내에서도 인공지능(Artificial Intelligence: AI)에 대한 관심이 확산되기 시작하였다. 이와 더불어 인공지능 등 고도의 지능기술 신산업이 가져올 ‘잠재적 기술 위험’에 대한 관심이 점차 대두되고 있다. 그러나 인공지능 기술이 우리사회에 가져올 수 있는 위험은 아직은 ‘예측하지 못한 기술의 위험’으로만 제한적으로 다루어지고 있으며, 이에 대한 위험정책연구는 아직 시작 단계에 불과하다. 따라서 본 연구는위험관리에서 활용되는 ‘사전예방원칙’과 ‘복원력’ 에 대한 이론연구를 토대로 인공지능위험정책에 대한 전문가 AHP 조사를 수행하였다. 이 분석을 토대로 도출된 실증적이고구체적인 정책 우선순위는 다음과 같다. 사전예방원칙 관련 최우선적으로 도입해야 할정책수단으로는 위험감지 시 한시적 개발중지, AI 위험비용 및 책임체계 마련 및 AI 안전입증의 공급자 책임원칙 도입 등의 순서로 나타났다. 복원력 관련 최우선적으로 도입해야 할 정책수단으로는 사회적 위험커뮤니케이션 확대 정책, 국제 AI 기술 안전기준 표준및 안전성 인증제도 도입, AI 위험 대비 보안성, 신뢰성 강화 정책 등의 순서로 나타났다.The World Economic Forum (WEF) held in Davos in January 2016 announced that the Fourth Industrial Revolution has arrived, and Sedol Lee played a historic game of Go against Google DeepMind's AlphaGo computer program in March 2016. These events have raised the public’s interest and concerns in terms of Artificial Intelligence, or A.I.
Most studies so far have largely focused on the positive potential and economic benefits of AI. Yet, there has been little attention given to AI’s negative impacts and possible risks.
In this milieu, this study attempted to identify major elements of risk associated with the advent of AI and to suggest possible policy responses based upon two concepts-precautionary principles’ and ‘resilience,’which encompass both the ex-ante and ex-post reponses to AI risk. After listing up 36 possible precautionary policies and resilience policies via literature review and a series of expert brainstorming sessions, a further AHP survey of total 15 experts, equally 5 experts from three sectors of government, business and academia was conducted.
In the pairwise comparison and weighing up by the AHP, this suggested the urgent and vital policies for preparing and responding towards AI risk.