본 글은 우리나라의 최초 인공지능에 관한 단일법인 ‘인공지능법 제정안’의 주요 내용을 소개하고, 유럽의 법안과 비교·검토하여 인공지능 규율 방향 및 리스크 관리에 대해 고찰하고자 한다. ‘인공지능법 제정안’은 인공지능에 대한 기본법적 성격의 법안으로, 인공지능의 정의 및 기본원칙을 포함하여 인공지능산업 육성 및 신뢰 확보를 위한 규정과 윤리원칙 및 고위험영역 인공지능에 대한 규율방안을 마련하고 있다. 유럽의 법안과 비교하면, 우리는 인공지능의 투명성 및 안전성 확보를 위한 규제의 측면보다는 인공지능 기술발전 및 산업 육성에 초점을 맞추고 있다고 할 수 있다. 세계 주요국들이 생성형 AI 및 원격 생체 인식 등 인공지능 관련 리스크에 대응하기 위해 인공지능 규제를 점차 규범적으로 접근하고 있는 것을 미뤄볼 때 우리 ‘인공지능법 제정안’의 규제는 인공지능의 투명성 및 책임성 확보를 위한 법규범적 측면에서 다소 추상적이라고 할 수 있다. 다만 우리 ‘인공지능법 제정안’은 고위험영역 인공지능에 대해 규율하고 있으며, 인공지능 신뢰성 확보를 위한 조직을 구성하고 있으므로 향후 인공지능 관련 이슈에 대응하기 위한 기반을 마련하고 있다고 평가할 수 있다. 따라서 유럽 인공지능 법안의 인공지능 규제방식 및 거버넌스 추진체계를 참고하여, ‘인공지능법 제정안’의 인공지능위원회를 중심으로 리스크를 관리를 위한 거버넌스를 구체화하고, 리스크 평가 및 관리체계를 구축하여 법안에서 제시하는 인공지능 신뢰성 확보를 위한 실효성을 담보해야 할 것이다.