본 논문은 윤리적 가치를 지향하고, 위험평가에 기반을 둔 인공지능 위험 규제논의 최근 동향을 분석하여 고위험인공지능기술에 대한 형사정책의 방향을 제시해 보고자 한다. 인공지능기술 윤리 지침 정립을 통한 공동체적, 자율적 규제논의에 이어 국가전략적 접근과 국제사회의 규범정립 노력이 진행되는 가운데, 인공지능기술로써 지향해야 할 윤리적 가치를 기반으로 안전과 권리에 중한 영향을 미치게 될 고위험 인공지능 통제 기본틀을 구축하고, 그 틀안에서 인공지능기술의 개별구체적 개발과 구현의 고위험성을 평가하여 형법을 포함한 법적 통제하에 두려는 입법정책적 노력이 전개되고 있다.
인공지능 형사정책은 고위험인공지능기술 통제의 문제다. 미국의 예와 같이 신뢰 가능한 인공지능시스템이라는 가치지향을 법제화하고, 유럽연합의 예와 같이 합의된 가치와 합리적 위험평가 기반 위에서 관리·통제입법을 진행하면서, 형사정책적 개입도 고려되어야 할 것이다. 고위험인공지능기술의 구현으로서 법과 형사정책적 대응 검토가 필요한 대상은 인공지능기반 로봇(산업용 로봇, 의료용 로봇, 자율주행운송 로봇, 성기능 로봇, 군사용 로봇), 그리고 인공지능기반 자동인식 및 의사결정시스템이다. 그러나 형사정책적 대응을 위해서는 위험평가와 개입수단과 효과의 비교형량이 필요한데, 과잉·부실대응이나 방치 결과에 이를 위험성도 있다. 이처럼 문제대응이 곧 문제의 일부가 될 수 있기 때문에 예방과 금지의 법제화 논의 진전은 신중할 수 밖에 없다. 또한 고위험인공지능기술 현실에는 범죄예방과 탐지, 진압에 활용되는 각종 로봇과 생체정보식별시스템, 자동화의사결정시스템이 포함되어 있다. 따라서 고위험인공지능기술의 위험과 침해에 대응하는 형사법과 정책은 자신에게도 엄격한 인공지능기술활용 통제와 시민안전과 권리보호를 위한 활용과제를 함께 감당해야 한다.