주요국은 인공지능 위험을 통제하기 위하여 인공지능에 대한 규제 입법을 마련하고 있다. 인공지능으로 인한 위험을 구체화하는 것으로부터 출발해서, 위험성이 높은 인공지능에 대하여는 다양한 통제수단들을 적용하고 있다. 인공지능을 개발ㆍ적용ㆍ배포ㆍ사용하는 사업자 등에 대하여 데이터 관리, 인공지능시스템과 서비스에 대한 품질관리, 위험관리, 기록관리, 개인정보보호 등의 의무를 부과하는 것을 주요 내용으로 한다. 사용자에 대해서는 설명요구권이나 피해구제를 적절하게 받을 수 있도록 권리를 보장하고 있다. 인공지능의 자율성이나 예측불가능성, 불확실성 등으로 인해 그 동안의 규제 체계 내에서 포섭하지 못하는 문제점들을 해소하기 위해 다양한 위험 통제수단들을 마련하고 있는 것이다. 이에 반해 한국은 아직까지는 위험 통제에 대한 것보다 법제도적 관심이 산업의 진흥이나 기술 발전을 위한 기반 마련이나 이를 통한 국가경쟁력 확보 등에 있는 듯하다. 인공지능기술이 빠르게 발전하고 있고 특히 최근에는 ChatGPT와 같은 생성형 AI 등의 등장으로 변화가 급격하게 다른 양상으로 일어날 것으로 예상되고 있다. 인공지능 위험은 더욱 불확실하고 예측 불가능한 상태로 나타날 가능성이 높아지고 있다. 이러한 상황에서 인공지능 기술의 효용은 극대화하고 위험성은 최소화하여 기술의 이기를 누릴 수 있는 제도적 기반을 마련하는 것은 우리 사회의 중요한 과업이라 할 수 있다. 이에 본 논문은 주요국에서 인공지능의 위험을 통제하는 방식과 내용을 검토ㆍ비교분석을 실시하였다. 주요국의 입법동향 확인을 통해 시사점을 도출하고, 국내 인공지능 규제 도입시 적정한 설계 방향과 통제 수단들을 제안하였다.