기계는 어떻게 생각하고 학습하는가 - 6인의 위대한 AI 석학이 조망하는 인공지능의 현재와 미래
뉴 사이언티스트 외 지음, 김정민 옮김 / 한빛미디어 / 2018년 12월
평점 :
장바구니담기


2016년 알파고가 이세돌을 꺾은 이후로 '인공 지능(AI)'이라는 단어는 마법의 키워드가 되어 버렸습니다. 너도 나도 인공지능을 말합니다. 근데, 그 사람들이 모두 같은 의미로만 인공지능이란 용어를 사용하는 것 같지는 않습니다. 오해와 기대와 엄정함이 뒤섞여서 하나의 단어를 제 각각의 뜻으로 사용하는 경우도 많은 것 같습니다.

제가 관심을 가졌던 건 인터넷 댓글에서 자주 보이는 'AI 판사'와 그 추천수.
그걸 보면서 사람들이 인공지능에 대해 많은 오해, 위험할 수도 있는 오해를 하고 있다는 생각을 자주 했습니다.

근데 생각해보니 저 또한 인공지능에 문외한이었습니다. 내가 알고 있는 상식이 맞는지 확인해보고 싶어서 이 책을 읽게 되었습니다.

인공지능은 보통 두 단계로 나뉩니다. 강한 인공지능과 약한 인공지능.
강한 인공지능은 인간과 동일한 의미의 마음을 갖고, 여러 종류의 문제들을 해결할 수 있는 기계를 말합니다. 튜링 테스트라고 불리는, ‘이미테이션 게임’을 고안한 앨런 튜링같은 초기 과학자들이 꿈꿨던 인공지능을 의미합니다,
약한 인공지능은 하나의 특정 작업만 잘 하는 인공지능을 말하고, 오늘날 존재하는 대부분의 인공지능입니다.

우리가 만화책에서 상상했고, 영화에서 꿈꿨던 본래적 의미의 인공지능은 실패했습니다.
그러자 전문가들은 인공지능의 개념을 바꿔버렸습니다.
강한 인공지능에서 약한 인공지능으로. 그러면서 기호규칙을 버리고 머신러닝 기법을 택했습니다.

프로그램이 규칙에 따라서 논리적 추론을 하는 방법을 포기하고, 방대한 양의 데이터를 통해서 컴퓨터가 통계적 분석을 하는 방법을 선택한 것입니다. 그중에서도 머신러닝에 인공신경망을 도입한 딥러닝에, 하드웨어의 발달과 웹을 통한 빅데이터가 뒷받침되면서 비약적인 발전이 일어나기 시작합니다. 영상처리, 음성처리, 번역, 자율주행차 등.

이제 데이터 주도 접근법은 삶의 거의 모든 영역에 영향을 주고 있습니다. 근데 인공지능이 내린 결정에 대해 왜 그런 결정이 내려졌는지 인간은 이해할 수 없습니다. 그러면서 위험도 높아집니다.

영화 마이너리티 리포트처럼 인공지능이 나를 살인용의자로 지목합니다. 또는 내가 장기이식 대상자인데 인공지능이 나의 장기이식을 연기합니다. 둘 다 근거는 모릅니다. 통계를 기반으로 한 판단이고 인간은 이해할 수 없습니다.

책은 그러면서 많은 얘기를 합니다.
창작 활동 등 다양한 방면에서 새로운 개척을 도전하는 인공지능의 현재와 도전.
뿐만 아니라 일자리 감소, 방대한 데이터가 초래할 사생활의 침해, 사고시의 자율주행차의 윤리적 선택, 민간인과 군인을 구별하지 못하는 킬러 로봇, 고통을 느끼는 컴퓨터 등 인공 지능의 윤리적인 고민.
논리를 탈피한 컴퓨터등 기존의 틀을 깨버리는 새로운 개념 등등.
무겁고 지루한 얘기일 수도 있고, 또는 진지하고 사려깊은 사색일 수도 있는 근원적이고 포괄적인 이야기들을 합니다.

마지막에는 특이점이 절대 오지 않는 이유를 말합니다.
특이점(싱귤래러티)은 인공지능이 인류 전체의 지적 능력을 뛰어넘는 시점을 가리킵니다. 인공지능이 자기보다 더 뛰어난 인공지능을 만들어내고, 그 인공지능이 또 자기보다 더 뛰어난 인공지능을 만들어내고, 그 인공지능이 또 더 뛰어난 인공지능을 만들어내고....그러면서 인공지능이 세상을 정복할 거라는 그런 내용입니다.
저 개인적으로는 특이점을 걱정할 시간에 차라리 달걀을 사서 부화시켜서 병아리가 태어나면 닭으로 키우고, 닭을 팔아서 새끼 염소를 사고, 또 염소를 키워 돼지를 사고... 그렇게 해서 재벌이 될 생각을 하겠습니다.

이 책은 인공지능에 대한 진지하고 깊이 있는 여러 관점들을 제시합니다. 인공지능에 대해서 전혀 모르는 상태보다는 약간의 상식을 갖춘 상태에서 읽으면 더욱 큰 의미를 느낄 것 같습니다.

미국의 어떤 주에서는 자동형량에 인공지능을 보조로 활용하기도 한다고 생각합니다. 그럼에도 불구하고 저는 AI 판사는 부적절하고 심지어는 위험한 발상이라고 생각합니다.
지금의 인공지능은 인간 행동과 규범에 대한 판단을 위임할 수 있을 정도로 신뢰성있는 존재가 아닙니다. 인간은 인공 지능의 판단 근거를 알지도 못합니다.

재판은 바둑처럼 간단한 게임이 아닙니다.
바둑의 유효한 경우의 수는 10의 360제곱이라고 하지만 바둑의 결론은 하나입니다. 상대방보다 더 집을 많이 만들면 됩니다. 재판은 경우의 수를 세는 게임이 아닙니다.

인공지능은 빅데이터를 기반으로 통계적 기법을 통하여 스스로 규칙을 만들어냅니다.
대한민국 판사는 대한민국 판례를 통해서 만들 수 밖에 없고, 그렇다면 그 AI 판사는 어쩌면 가장 사악하면서 가장 교활한 판사가 될 지도 모릅니다.

만인에 평등한 판사를 원해서 만든 AI 판사가
유전무죄 무전유죄의 법칙을 스스로 습득해서
만 명한테만 평등한 판사로 태어날 지도 모릅니다. 그것도 인간이 이해할 수 없는 가장 교활한 형태로.
저는 그것을 걱정합니다.
저는 AI 판사가 아니라 배심원제를 생각합니다.

저는 과학도도 아니고, 공학도도 아닙니다. 수학에 알러지를 갖고 있는 문과생 출신입니다.
저의 책 소개 글에 오해와 오류가 있을 수도 있음을 말씀 드리고 싶습니다.

댓글(0) 먼댓글(0) 좋아요(0)
좋아요
북마크하기찜하기 thankstoThanksTo