제Ⅰ부: AI와 인간 1장. AI는 마음이 있을까? … 017 2장. AI는 주저하지 않는다. 왜 이것이 문제일까? … 035 3장. AI의 선악 문제: 선악의 디지털 재해석 … 52 4장. 뉴럴링크 및 신경 상징 AI(Neuro-Symbolic AI)와 미래 인류 : 트랜스 휴머니즘과 포스트 휴머니즘 그리고 디지털 휴머니즘 …75
제Ⅱ부: 인공지능과 뇌신경과학 5장. 뇌신경과학에서 인공지능까지: 인간 뇌를 모방한 기술의 발전 … 99 6장. 정서와 공감의 신경과학적 이해와 Lisa Barrett의 정서 구성주의 … 117 7장. 인공지능과 도덕 판단 : Jonathan Haidt의 도덕 기반 이론과 신경과학의 결정 메커니즘 … 145 8장. 정신 건강과 뇌신경과학 관점에서 본 사회 통합 교육 … 178 9장. AI 윤리 도전 및 책임과 사이버네틱스 : Jaspers, Heidegger, Wiener의 관점에서 본 기술의 본질 … 198
제Ⅲ부: 인공지능 윤리 교육: 이론 10장. 생성형 AI(Generative AI)의 윤리 문제와 할루시네이션(hallucina tion) 이슈 … 225 11장. 수학적 계산 너머 윤리적 로봇 구현을 위한 전제 : 신경과학의 도전 과제와 도덕 판단 알고리즘 구현을 위한 검토 사항 … 258 12장. Patricia Churchland의 양심 이론과 뇌신경과학적 양심론의 교육 시사점 … 282
제Ⅳ부: 인공지능 윤리 교육: 실제 13장. 교육신경과학을 활용한 윤리 교사 교육 … 325 14장. 규범적 AI 윤리 가이드라인과 AI 윤리 교육 적용 방안 … 346 15장. 인공지능 도구 챗봇을 활용한 AI 윤리 교육 … 379
참고 문헌 … 402
이용현황보기
이용현황 테이블로 등록번호, 청구기호, 권별정보, 자료실, 이용여부로 구성 되어있습니다.
등록번호
청구기호
권별정보
자료실
이용여부
0003127796
370.114 -24-14
서울관 사회과학자료실(208호)
이용가능
0003127797
370.114 -24-14
서울관 사회과학자료실(208호)
이용가능
B000109180
370.114 -24-14
부산관 주제자료실(2층)
이용가능
출판사 책소개
“마음에도 공식이 있나요? : 인간과 인공지능의 ‘윤리적’ 공생을 꿈꾸다”
사람과 함께 대화하고, 사람처럼 ‘창작’하는 인공지능은 더 이상 공상 과학 영화 속 산물이 아니다. ChatGPT로 대표되는 인공지능 ‘챗봇’의 상용화 이후, 세상은 다시 한번 급속도로 변화의 물결을 타고 있다. 그러나 새로운 기술의 등장은 항상 새로운 문제를 견인하기 마련이다. 편향된 데이터를 수집한 AI가 인간 사회의 차별과 혐오를 답습하고, 오염된 정보를 수집한 AI가 실제로 존재하지 않는 사건을 ‘그럴싸하게’ 꾸며내 거짓말을 하거나, 심지어 사람의 감정을 이해하고 공감하는 ‘것처럼 보이는’ 챗봇의 대화 패턴 때문에 우울감이나 자살 충동 등의 부정적 감정 증폭을 겪는 피해자들까지 발생하고 있다. 과연 우리는 ‘도덕’을 모르는 인공지능에 ‘사람의 마음’을 가르칠 수 있을까? 그리고 발전하는 인공시대의 주역이 될 아이들은 인공지능과의 공존을 위해 무엇을 배우고 익혀야 할까?
『AI 윤리와 뇌신경과학 그리고 교육: 인공지능은 주저하지 않는다』는 현 시대 인공지능 기술이 가진 명확한 한계, 즉 ‘윤리 의식’이 부재한 인공지능의 문제를 전면적으로 다루며 이것을 어떤 방식으로 개선할 수 있을지에 대한 학술적 연구와 논의를 담은 책이다. 또한 이 책의 저자인 박형빈 교수는 한발 더 나아가 인공지능이 일상화의 초읽기 단계에 접어든 지금, ‘인공지능을 활용한 교육’을 경험하며 ‘인공지능 윤리 문제’를 실질적으로 경험하게 될 현 세대의 아이들과 교사들이 어떤 태도로 어떤 문제에 대응해 나가야 할지에 대해 탐구하며 이제 새로운 시대를 맞이하게 될 우리의 든든한 길잡이가 되어 준다.
2016년 등장한 인공지능 바둑 프로그램 ‘알파고’는 그야말로 ‘고민 한 번 없이’ 불세출의 바둑 기사들을 뛰어넘으며 세계를 충격에 빠뜨렸다. 당시 알파고와 인간의 바둑 대결만큼이나 화제를 모은 한 장면이 있는데, 바로 한국의 바둑 기사 이세돌 9단이 알파고와의 승부 후 혼자서 이전의 대국을 복기하는 장면이었다. 일반적으로 바둑에서 복기는 단순히 자신의 수만을 재고하는 것이 아니라, 상대방이 어떤 순간에 왜 어떤 수를 두었는지까지를 헤아리며 승부의 전체적인 맥락을 읽고 이해하기 위한 과정이다. 철저한 계산만으로 이루어진, 그러므로 ‘왜’가 결여된 알파고의 수를 수 번에 걸쳐 가늠한 끝에 이세돌 9단은 알파고로부터 1승을 거두었고, 이는 현재까지도 ‘알파고 전적상 유일한 패배’로 기록되고 있다. 훗날 이세돌 9단은 ‘신의 한 수’로 칭송받아 온 당시 대국의 묘수에 대해서 ‘기계적 결함을 이용한 꼼수였을 뿐’이라는 소감을 밝혔다. 그의 대국 상대였던 알파고가 감정 없는 기계였기 때문에 단지 그것의 ‘계산 능력’의 허점을 파고드는 수밖에 없었다는 것이다.
그런데, 기계가 ‘감정’을 느끼지 못하는 것은 왜 문제가 될까?
“망설이지 않는 것도 문제가 되나요? : 인공지능의 마음을 이해할 수 있을까?”
인공지능을 활용한 자율 주행 택시 사업을 확대 중이던 중국이 오는 2024년 8월, ‘무인 버스’를 공식 운행하겠다는 계획을 발표했다. 2023년 샌프란시스코에서도 시범 운행된 바 있는 이 무인 버스는 ‘인간보다 빠른 판단력, 인간보다 확실한 집중력’을 장점으로 내세우며 빠르게 저변을 확대 중이다. 한국의 경우, 제주도 일부 구간에서 안전 요원이 탑승한 자율차 서비스가 운영되고 있으며, 현행 자율 주행 대중 교통으로서는 최장거리 노선을 달리고 있다. 이제 사람과 함께 대화하고, 사람처럼 ‘창작’하는 인공지능은 더 이상 공상 과학 영화 속 산물이 아니다. ChatGPT로 대표되는 인공지능 ‘챗봇’의 상용화 이후, 세상은 다시 한번 급속도로 변화의 물결을 타고 있다.
한편, 새로운 기술의 등장은 항상 새로운 문제를 견인하기 마련이다. 편향된 데이터를 수집한 AI가 인간 사회의 차별과 혐오를 답습하고, 오염된 정보를 수집한 AI가 실제로 존재하지 않는 사건을 ‘그럴싸하게’ 꾸며내 거짓말을 하거나, 심지어 사람의 감정을 이해하고 공감하는 ‘것처럼 보이는’ 챗봇의 대화 패턴 때문에 우울감이나 자살 충동 등의 부정적 감정 증폭을 겪는 피해자들이 발생하기도 했다. 심지어 자율 주행 차량의 경우, ‘무단횡단을 하는 보행자’를 ‘사람’으로 판단하지 못해 인명 사고를 유발하기도 했다. 상황이 이렇다 보니, 일각에서는 여전히 자율 주행 차량이나 챗봇과 같은 인공지능 기술의 상용화에 회의적이다. ‘트롤리 딜레마’의 가정처럼, 핸들을 꺾어 한 사람을 희생하고 승객 전부를 구하거나 반대로 한 사람을 살리고 승객 전부를 희생시켜야 하는 상황이 펼쳐진다면 과연 인공지능은 상황을 ‘이해’하고 ‘고민’하여 ‘판단’을 내릴 수 있을까? 또한 인공지능이 일정한 판단을 내려 그 계산 결과대로 작동했을 때, 과연 인간은 인공지능의 판단을 ‘이해’하고 받아들일 수 있을까? 바로 이러한 문제를 해결하기 위해, 현재 인공지능 개발 연구에서 가장 중요하게 다뤄지고 있는 것이 바로 ‘인공지능에 윤리적 판단 능력 부여하기’다. 하지만 이 문제에는 중요한 걸림돌이다. 사람조차 아직 윤리가 무엇이고 도덕이 무엇인지 명확히 정의하지 못한다는 점이다.
“마음에도 공식이 있나요? : 인공지능이 마음을 이해할 수 있을까?”
‘인간은 선하게 태어나는가, 악하게 태어나는가? 선은 무엇이고, 악은 무엇인가?’ 인류 역사상 단 한 번도 시원하게 해명된 바 없는 이 논제가 최근 인공지능 기술의 가파른 성장으로 인해 다시 주요 화두로 떠올랐다. 그런데, 이번에는 문제가 좀 더 복잡하다. 이전 시대의 선악에 대한 논의는 선악의 개념을 파악하고자 하는 형이상학적인 철학 담론의 양태를 띠었지만, 현 시대의 선악에 대한 논의는 명료한 ‘정답’을 요구하기 때문이다. 우리가 더하기의 공식을 모르는 채 ‘1+1=2’라는 계산식을 설명할 수는 없는 것처럼, 인간의 선이 무엇이고 악이 무엇인지, 마음이 무엇이고 감정이 무엇인지 정의할 수 없다면 그것을 기계에 이식하는 것은 불가능할 것이다. 현대의 인공지능은 과거 공상 과학 영화에서나 등장해왔던 ‘로봇 비서’, ‘무인 차’ 등의 역할 수행을 시작하며 점차 더 큰 자율성을 획득하고 있다. 그러나 인공지능의 활동 범위가 넓어질수록, ‘윤리 의식’의 개념이 없는 인공지능이 발생시키는 문제 역시 증가하고 있다는 것은 부정할 수 없는 사실이다. 그렇다면 과연 우리는 ‘도덕’을 모르는 인공지능에 어떻게 ‘사람의 마음’을 가르칠 수 있을까? 그리고 발전하는 인공시대의 주역이 될 아이들은 인공지능과의 공존을 위해 무엇을 배우고 익혀야 할까?
『AI 윤리와 뇌신경과학 그리고 교육: 인공지능은 주저하지 않는다』는 현 시대 인공지능 기술이 가진 명확한 한계, 즉 ‘윤리 의식’이 부재한 인공지능의 문제를 전면적으로 다루며 이것을 어떤 방식으로 개선할 수 있을지에 대한 학술적 연구와 논의를 담은 책이다. 또한 이 책의 저자인 박형빈 교수는 한발 더 나아가 인공지능이 일상화의 초읽기 단계에 접어든 지금, ‘인공지능을 활용한 교육’을 경험하며 ‘인공지능 윤리 문제’를 실질적으로 경험하게 될 현 세대의 아이들과 교사들이 어떤 태도로 어떤 문제에 대응해 나가야 할지에 대해 탐구하며 이제 새로운 시대를 맞이하게 될 우리의 든든한 길잡이가 되어 준다. 저자가 책 속에서 말했듯, ‘인공지능 기술이 성공적이지 않거나 중요한 영향을 미치지 않을 것이라고 주장하는 것은 현재로서는 그다지 의미가 없다. 이 기술은 이미 성공적이며, 사회에 실질적인 영향력을 행사하고 있다.’ ‘특이점이 온다’는 표현이 과언이 아니게 된 이 순간, 우리는 ‘꿈꾸는’ 단계를 넘어 인공지능과의 공존을 준비해야 할 것이다.