-
-
AI는 양심이 없다 - 인간의 죽음, 존재, 신뢰를 흔드는 인공지능 바로 보기
김명주 지음 / 헤이북스 / 2022년 5월
평점 :

엊그제 사용하던 노트북전원이 들어왔다 나갔다해서 베터리 충전이 제대로 되지 않았다. 인터넷으로 집근처 서비스센터를 예약하고 노트북을 들고가서 진단을 받기로 했다. 예약을 마치자마자 카톡으로 메시지가 들어왔다. 예약확인과 함께 메시지 하단에 "챗봇전환"이라는 항목이 보였지만 처음에는 그냥 지나쳤다가 "상담사 연결없이 바로 ...할수 있다."는 안내 메시지를 발견하고 할까 말까 하다가 그래도 사람이 낫지...생각하고, 그냥 챗봇이 아닌 상담사와 메시지를 주고 받기로 했고, 원하는 정보를 얻은후 상담을 거의 마친 순간, "다른 추가 문의사항 있습니까?"라는 질문에 혹시나하고 "제가 지금 챗봇과 상담하는 건가요 아니면 상담사와 하는 건가요?"라고 질문을 던졌더니, "저는 야간 상담사로서 로봇이 아닙니다.^^"라는 답을 했다. 인공지능 챗봇이 일반화된 세상의 단상이 아닌가 해서 혼자 웃었다. 챗봇이 아닌 인간 상담사와 메시지를 주고 받고서도 긴가 민가 의심이 가서 질문을 한 것인데 가히 인공지능의 시대에 살고 있는 한 단면이 아닌가 생각된다. 더구나, 요즈음은 챗봇도 성능이 많이 좋아져서 굳이 전화를 붙잡고 씨름할 필요가 없다.
챗봇과의 메시지는 좀 상투적이고 형식적인 것인데 아무래도 인간과는 많이 달라서 챗봇과의 대화는 좀 거부감 비슷한 것이 있기는 하지만 점차 인공지능이 할수 있는 것이 많아 지고 우리 생활 깊숙히 들어오게 되면 우리의 삶은 영향을 받을 수 밖에 없으며 그러한 변화에 대한 이해를 미리하고 대처할 수 있다면 도움이 될 것이다. 이렇게 인공지능이 우리의 삶을 조만간 "흔들 이슈"들을 정리한 책이 있다. "AI는 양심이 없다(김명주 지음)"는 인공지능과 함께 살아가려면 필요한 "지혜"가 있는데 이것을 "윤리"로 함축하고, 윤리는 인간만이 가진 "양심"으로 인하여 발현한다는 취지를 가지고 인공지능이 가져올 우리사회의 디지털윤리와 새로운 변화현상에 대한 이해력과 통찰력을 준다. 이 책의 핵심은 죽음, 존재, 신뢰에 대한 인공지능윤리에 대한 것이다. 미래에 인간이 어떻게 해야 인공지능과 공존할 수 있을지에 대한 해답이자 근원적인 방법으로 인공지능 윤리를 제시하고 있다.
이 책의 구성은 <'죽음'을 흔드는 AI>, <'존재'를 흔드는 AI>, <'신뢰'를 흔드는 AI> 그리고 <흔들림 너머 AI 바로 보기>구성이 되어 있다. <'죽음'>에서는 디지털 부활, 디지털 영생, 디지털 페르소나, 디지털 흔적, 디지털 유산 등등의 키워드가 나오는데 인공지능이 이런 디지털 유산/흔적을 공부하여 디지털부활이 되는, 심지어 살아있는 사람에게도 디지털 쌍둥이를 만들어 산자와 죽은자의 경계가 모호해지는 순간이 나타나고 이런 것에 대한 찬/반, 긍정/부정에 대한 논의가 이루어진다. 인공지능에 대하여 '죽음을 흔드는 손'으로 급부상한다는데 그것은 바로 '사후 디지털 부활' '사후 디지털 고용'등 고인에 대한 사후 프라이버시에 대한 보장은 어떻게 해야 하는지 사회적 공감대 형성에 대한 조처를 마련해야 하는 시기를 맞이하고 있다는 것이다. <'존재'>에서는 존재하지 않는 가상인간에 대한 것으로 가상 인플루언서, 가상 아나운서, 가상 가수 등에 관한 것인데 우리의 로지, 루이, 래아가 소개된다. 전통적인 윤리의 관점이 실존적인 인간과 그 행위에 국한되어 있지만, 이 버츄얼 휴먼과 아바타가 '존재'하게 되면서 아날로그 현실셰계와 디지털 현실세계가 섞인 혼합현실(MR)이 존재하는 사회에서 디지털 윤리의 필요성과 방향성에 대하여 공감대를 형성하는 것이 필요하다고 강조하고 있다.
<'신뢰'>에서는 가수 블랙핑크를 좋아하는 20데 여성 페르소나로 설정된 인공지능 '이루다'에서 나타난 현상, 헤프닝이 사례로 설명되는데 인공지능의 역기능, 부작용, 위험성에 대한 이야기다. 알파고에서의 잠재력, 발전가능성과는 달리 '이루다'에서는 잠재적인 문제점에 대한 국민적인 공감과 공론화가 시작되었다고 한다. 책임지지 않는 인공지능의 사례로 자율주행차가 나오는데 테슬라 모델S의 자율주행차 사고의 책임소재, 흑인을 차별한다던가, 여성을 차별한다던가, 공립학교를 차별한다던가하는 인공지능의 차별과 편견에 대한 사례들로 구성이 되어있다. 착각하게 만드는 인공지능은 앞서 이야기한 노트북 서비스관련 개인적인 경험에서도 겪은 사례인데 의인화된 인공지능 챗봇이 마치 사람같은 착각을 할 가능성과 불쾌한 골짜기(Uncanny valley)에 대한 소개, 딥페이크/딥 누드에 대한 사례들이 나온다. 인공지능을 통한 의료영상의 위조는 좀 걱정되는 바가 크다. <'신뢰'>에서는 신뢰할수 있는 인공지능이라야 우리와 함꼐할 수 있다는 것이고, 다양한 상황과 시각에서 우리의 윤리적인 상상력이 필요하다는 점을 강조한다. 마지막 장은 인공지능윤리가 필요한 이유와 도출에 대한 것으로 교육, 대학, 공공분야, 정부의 역할을 다룬다.