본 논문에서는 인공지능 기술을 활용하여 생산・유통하는 허위조작정보와 관련된 법률적 쟁점 및 시사점을 다음과 같이 제언한다. 첫째, 인공지능 및 허위조작정보의 명확한 법적 개념을 마련하지 않고 규제 입법을 하는 경우 어떤 내용의 인공지능 또는 허위조작정보가 규제 대상이 되는지, 어느 범위까지 적법한지 등에 대한 예측가능성을 확보하기 어렵다. 따라서 인공지능 및 허위조작정보의 법적 개념, 보호 대상 등이 불명확하여 이를 규제하기 위한 법률 제정이 수월하지 않은 상황에서는 적용 가능한 현행 법률을 적극적으로 활용하여야 한다. 또한 인공지능 및 허위조작정보에 대한 사례를 분석한 결과를 축적하여 개념 정의, 보호 범위 등을 명확하게 마련할 수 있는 시점에 인공지능을 활용한 허위조작정보를 규제하는 법률을 제정하는 것이 타당하겠다. 둘째, 인공지능 알고리즘이 편향되는 경우에는 정확하지 않은 데이터를 기반으로 하거나 사실을 왜곡하는 정보 등으로 인하여 특정인・특정 집단・특정 의견 등을 무시하거나 차별할 우려가 있다. 특히 이용자가 이러한 알고리즘 편향성을 인식하지 못하여 정확한 가치 판단의 기회를 상실할 수 있고, 인공지능이 허위조작정보 확산 수단으로 악용될 우려가 있다. 따라서 이용자들이 편향성 여부를 판단하기 어려운 알고리즘에 대하여 공인된 기관이 마련하여 제공한 알고리즘 검증프로그램을 통하여 언제든지 알고리즘을 투명하게 검증할 수 있도록 하고, 진실성 여부가 논란이 되는 정보에 대해서는 찬성과 반대 과정을 이용자들이 살펴볼 수 있도록 하여야 한다. 이와 함께 논란이 해소되지 않은 정보의 추천서비스를 자제하도록 하여 확증편향의 문제점도 함께 해소할 필요가 있다. 셋째, 허위조작정보를 규제하기 위해서는 해당 정보가 허위라는 사실을 규명하여야 한다. 사법부의 종국적 판단 이전에 행해진 행정부의 허위성 판단이 사법부의 종국적 판단과 상이한 경우에는 인터넷상 언론표현의 자유를 제한하거나 위축시킬 우려가 있다. 따라서 허위조작정보 규제 필요성에 대한 사회적 공감대를 형성하고, 유럽연합과 같이 일률적인 규제보다는 사회적 영향력이 큰 인터넷서비스제공자를 상대로 일정한 의무를 부여하는 등 선별적이고 순차적인 규제 사례를 참고할 필요가 있다. 넷째, 편향된 알고리즘으로 구성된 인공지능을 통하여 허위조작정보를 생산하고 유통함으로써 피해자가 발생한 경우, 고의 또는 과실로 인한 위법행위로 타인에게 손해를 가한 자에 대한 손해를 배상할 책임을 누구에게 물을 것인지 불분명하여 민사책임에 있어서의 행위책임 원칙을 훼손할 우려가 있다. 또한, 편향된 인공지능을 통하여 유통되는 허위조작정보를 예방하기 위하여 해당 정보 삭제 또는 차단 등의 조치를 요구하는 경우 누구를 대상으로 해야 하는지도 불분명하다. 따라서 가해자 특정, 인공지능이 악용되었다는 사실 및 특정 정보의 허위성 등을 피해자가 입증하기란 쉽지 않기 때문에 손해배상 청구를 위한 가해자의 고의 또는 과실 여부, 그로 인한 위법행위로 손해가 발생하였다는 인과관계 등의 입증책임을 가해자에게 전환하여 피해자 보호를 강화하여야 하며, 해당 정보 삭제 또는 접속차단 등의 시정요구 상대방을 명확하게 특정하여야 한다.