일상의 광고에서부터 전문성을 요하는 분야까지 어느덧 우리 삶의 가장 밀접한 영역을 점령하면서 인류와 공존하기 시작한 인공지능은 하루가 다르게 우리의 일상과 주요 산업 분야의 패러다임을 바꾸면서 혁신적인 진화를 거듭하고 있다. 그리고 최근 범인공지능으로 대표되는 Chat 'GPT'를 중심으로 인공지능 기술은 인간의 고유한 영역으로 인식되어 왔던 창의적이고 독창적인 솔루션들을 선보이며 놀라운 잠재력을 창출해 나가고 있다. 또한 운전자 없는 자동차, 수술하는 로봇, 각종의 행정행위 주체로서 기능하면서 현재의 인공지능은 인간의 한계를 넘어서는 초지능 기술로 진화해 나가고 있다.
그러나 인공지능 시대의 본격적인 진입을 앞두고 있는 지금, 많은 전문가들은 동 기술의 '특이점' 도래와 위험성을 강조하며 이에 대한 규제 필요성을 주장하기 시작하였다. 알고리즘에 의해 제공된 편향된 정보와 가치관에 의해 훼손되는 민주주의원리, 집적된 데이터가 권력화되어 나타나는 거대 디지털 권력 및 이를 활용한 정부의 중앙집권화 감시체계, 데이터를 통한 권력 획득 과정에서 침해되는 개인정보와 데이터 경로의존성이 높은 알고리즘에 의해 발생하는 차별적 결과 등 오늘날 우리 사회는 인공지능과 공존하는 삶에 있어서 기술 위험에 대응한 사회안전망 구축이 필요하다.
2023년 6월 유럽연합 의회를 통과한 인공지능에 대한 일반법(안), 미국 의회의 오픈 AI 규제 의사 및 각종 규제 법률(안) 등 현재 국제사회는 인공지능의 헌법적 위험에 공감하면서 공동체적 해결방안에 대한 진지한 논의를 진행시켜 나가고 있다. 특히 이러한 인공지능 규제 모습은 종래의 윤리 규범 및 그에 기한 자율규제 원칙에서 벗어나 점차 관련 법률의 제정, 감독·관리 체계의 확립과 같은 규제강화 형태로 변화하고 있다. 그리고 이러한 국제사회의 기술 규제강화 움직임 속에서 한국도 인공지능 규제논의 및 정책변화에 대한 속도를 내기 시작하였다. 그러므로 이러한 상황에서 인공지능 위험 통제를 위한 규제가 어떻게 윤리규범에서 법적 논의규제로 변화하였는지에 관한 내용 및 현재 인공지능에 대한 관련 규제 규범체계 등을 가지고 있는 유럽연합과 미국의 흐름을 살펴보는 것은 의미가 있다.
이에 인공지능 규제에 관한 국제사회의 윤리적·법적 규범체계 전반에 관한 모습과 함께 이를 바탕으로 한 한국의 인공지능 규제현황 및 발전 방향에 대해 논의하려 한다. 그리고 이와 같은 논의의 중심에는 과학기술의 전문성과 특수성의 보장 및 기술에 의해 침해되는 공동체 이념과 기본권의 보호를 통한 기술 신뢰성의 확보와 같은 국가의 헌법적 과제를 중심에 둔다. 따라서 본 연구는 인공지능 기술이 가진 헌법적 위험 요소에 대한 사회적 관심을 유도하기 위한 목적에서 시작하여 사회 각 분야에서 활용되고 있는 인공지능의 신뢰성 확보와 강화를 위한 규범적 대응 체계 마련이라는 결과로 이어질 수 있도록 현재의 규범체계 영역 전반을 살펴보고자 한다.