-
-
인공지능, 마음을 묻다 - 인공지능의 미래를 탐색하는 7가지 철학 수업
김선희 지음 / 한겨레출판 / 2021년 8월
평점 :
‘인간을 뛰어넘는 기계가 나타난다면······’
음악을 듣고 싶을 때, 불을 끄는 것이 귀찮을 때, 운전하는 것이 힘들 때 등등, 우리는 인공지능의 도움을 받는다. 집 안의 가전은 사물인터넷으로 연결되어 밖에서도 끄고 켤 수 있는 세상이 되었다. 손 안의 인공지능 스마트 폰은 전화걸기, 음악 듣기, 길 찾기, 인터넷 연결 등등의 일을 해내고 있다. 이세돌이 인공지능 알파고에게 패했을 때 모두가 놀랐던 것이 엊그제 같은데 이제는 인공지능이 일상 속 깊이 자리를 차지하고 있다. 인공지능을 사용하는 편리함에 적응할수록 인공지능에 대한 두려움도 함께 커진다. 왜 우리는 인공지능을 편리하게 사용하면서 동시에 인공지능을 두려워하는 것일까? 두려워하면서도 인공지능 기술 개발에 예산을 쏟아 붓는 이유는 무엇일까? 인간이 인공지능에게 갖는 두려움은 어떻게 해야 사라질 수 있을까? 질문의 답을 『인공지능 마음을 묻다』에서 찾아보려 한다. 『인공지능 마음을 묻다』는 인공지능에 대한 주제별 질문을 총 7개의 장으로 나누어 설명한다. 인간 지성의 대표적인 영역인 ‘사고와 직관, 감정과 공감, 의식, 생명, 개성, 예술과 문화, 사랑, 젠더와 편견, 기계 학습, 공정성과 신뢰 문제 등’의 주제에 대해 인공지능이 어떻게 사고하고 인간의 지적 과제를 수행하는지 살펴본다.
‘인공지능은 우리를 속일 수 있는가’
인공지능 철학의 첫 번째 주제는 ‘생각하는 기계’의 가능성이다. 튜링은 모방 게임을 통해 인공지능이 인간처럼 생각할 수 있는지를 시험하기 위해 ‘튜링 테스트’를 만든다. 여러 가지 질문을 한 후 답변하는 상대가 인간인지 인간인 척하는 인공지능인지 판단하게 하는 튜링테스트는 모방게임을 변형한 것이다. 튜링은 인간을 속일 수 있는 능력이 사고할 수 있는 능력과 같다고 생각했다. 튜링테스트를 통과하는 인공지능 컴퓨터가 존재한다면 ‘인공지능은 인간을 속일 수 있다’는 명제가 성립된다고 말한다. 튜링은 프로그램이 된 컴퓨터는 인간과 같은 심리 상태, 지능, 사고능력을 갖기에 충분하다고 보았다. 이것이 ‘강한 인공지능 논제’다. 튜링이 모방 게임에서 생각한 마음의 모델은 기능주의다. 인공지능이 인간의 지능을 모방하는 방식은 기능주의 모델을 바탕으로 하기 때문에 인공지능의 모든 행동과 역할을 이해하고 설명하기 위해서는 기능주의에 대해 알아야 한다. 기능주의에서 ‘마음’은 물리적 자극(입력)에 의해 일어나는 것으로 특정 행동(출력)을 일으키는 내적 상태를 정의한다. 마음을 입력과 내적 과정과 출력 사이의 인과관계로 정의하는 기능주의 모델은 키보드로 질문이나 명령을 입력하면 컴퓨터 내부에서 계산 과정을 거쳐 모니터에 결과를 출력하는 컴퓨터 모델과 정확히 대응한다. 기능주의 관점에서는 인간의 사고 과정과 인공지능의 사고 과정은 동등하다.
데카르트는 속이기 위해서는 상대방이 사유능력을 가지고 있어야 한다고 말한다. 기계는 사유능력이 없기 때문에 속일 수 없다고 생각했다. 속임의 주체와 속임의 대상 모두 ‘코기토(생각)’라고 말할 수 있어야 하고, 자신의 사고에 대해 의식하고 있어야 한다는 것이다. 데카르트는 기계는 생각도 의식도 없다고 생각했다. ‘중국어 방’이라는 사고실험을 한 존 써얼은 인공지능이 사고능력을 지녔다는 튜링의 주장을 반박한다. 이를 증명하기 위해 ‘중국어 방’ 실험을 설명한다. 어떤 방에 갇혀 있을 때 앞에는 하나의 상자가 존재한다. 상자에는 중국어 단어가 들어 있고, 외부에서 중국어로 물어보는 질문에 대답을 구성하는 방법을 알려주는 규칙들이 주어진다. 중국어를 모르지만 중국어로 질문을 받은 후 주어진 규칙에 따라 답을 내보낸다. 질문자는 답변자가 중국어를 모른다는 사실을 알 수 없다. 써얼은 튜링이 주장하는 기계의 사유도 이와 같이 언어를 이해하는 것이 아닌 형식적 기호를 계산해서 대답한 것이기 때문에 진정으로 사고한다고 말할 수 없다고 한다. 의식이 사고의 전제조건이라고 생각한 써얼은 튜링기계가 자신의 사고를 의식할 수 있는가를 묻는다. 써얼의 결론은 인공지능은 자신의 사고를 의식할 수 없으므로 우리를 속일 수도 없고 속임을 당할 수도 없다고 말한다. 데카르트의 코기토 테스트와 써얼의 중국어 방 사고실험은 모든 사고에는 의식이 수반된다는 것을 주장한다. 하지만 이와 반대로 사고를 할 때 느낌 또는 의식이 없어도 인지하고 이해하는 것이 가능하다고 생각하는 이들도 있다. 비트겐슈타인은 이해나 사고는 의식작용을 수반하지 않는다고 주장한다. 자각이나 의식이 없어도 많은 것을 이해할 수 있다. 모든 사고에 의식을 동반할 것을 요구하는 코기토 테스트를 인간의 사고에 적용하기 어렵기 때문에 인공지능의 사고력을 시험하기에 적절하지 않다는 것이다. 인공지능이 인간을 속일 수 있는지 없는지에 대한 답은 쉽게 찾아지지 않는다. 인공지능의 진화는 계속되고 있기 때문에 인간을 완벽하게 속이는 인공지능이 언젠가는 출현할 것이라 생각한다. 인간이 인공지능을 잘 알아야 하는 이유다.
‘인공지능은 마음을 구현할 수 있는가’
기계가 인간의 지능과 사고를 모방하기 위해서는 인간의 마음을 기능화 할 수 있어야 가능하다. 인간의 마음은 ‘지향적 마음과 현상적 마음’으로 이루어졌다. 인공지능은 기능화 할 수 있는 마음영역, 즉 인간의 지향적, 인지적 마음 혹은 기능적 마음을 모방하고 구현할 수 있다. 하지만 주관적이고 직접적인 의식인 현상적 의식은 기능화 할 수 없기 때문에 인공지능 기계가 모방할 수 없다. 어떤 일이나 주제에 대해 특정 관점을 갖는 것은 이미 형성하고 있는 총체적인 지향적 사고 체계에 근거한다. 사람들의 사고체계의 차이는 관점의 차이로 이어진다. 의식이 필요 없는 지향적, 기능적 사고만으로 관점을 갖게 된다면 기능적 마음을 구현하는 인공지능도 관점을 가질 수 있다. 인공지능은 기능화가 가능한 지향적 마음은 모방할 수 있기 때문에 인간과 같은 마음을 어느 정도까지는 구현해 낼 수 있다.
‘인공지능은 감정을 느낄 수 있는가’
믿음과 욕구 등의 지향적 마음은 인과적 역할이나 결과를 찾을 수 있어 기계가 따라할 수 있기 때문에 인공지능은 인간의 기능적 마음을 모방할 수 있다. 그렇다면 기능적 마음을 모방할 수 있는 인공지능은 감정을 느낀다고 말할 수 있을까? 인공지능은 타인의 감정을 직접 느낄 수는 없어도 타인의 고통과 슬픔을 추론할 수 있기 때문에 공감할 수 있다. 기능화 할 수 있는 감정은 인공지능이 어느 정도 표현할 수 있다고 말한다. 상담을 할 때 내담자들의 감정인 ‘기쁨, 분노, 슬픔, 두려움, 침울, 우울, 후회, 비탄, 당황, 실망과 좌절, 원망 등’은 명제적 사고 내용을 지닌 지향적 태도와 질적인 느낌이 동반되는 심리 상태를 나타내는 감정들이다. 상담을 할 때는 감정과 정서적 태도 이외에도 사람의 성격적 특성, 성향, 습관, 지적 능력 등도 해석해야 한다. 대부분의 감정과 정서적 태도는 사고 내용을 가진 인지적, 지향적 태도라고 할 수 있기 때문에 입력과 출력 관계로 기술되는 기능 상태로 접근할 수 있는 기능적 마음이다. 기능적으로 정의된 감정, 성향은 인공지능이 학습할 수 있다. 인공지능이 공감의 언어를 이해하고 배울 수 있다면 인공지능은 내담자의 감정을 이해하고 공감하는 것이 가능하다. 인간만이 느낄 수 있다고 생각했던 감정도 기능화 할 수 있다는 것이 놀라웠다. 내가 얼마나 단단한 편견에 사로잡혀 있는지를 다시 깨닫는다. 그렇다면 감정을 모방하는 기계는 인간과 같다고 말할 수 있을까?
‘인공지능은 생명과 개성을 가질 수 있는가’
생물학자를 비롯해 과학자들은 생명체나 살아 있는 유기체를 정보 시스템이라 생각했다. 정보를 흡수하고 저장한 정보에 따라 행동 변화를 조정하고, 정보를 감지하고 조직하기 위해 특수한 기관을 가진 시스템이라는 것이다. 이때의 살아있음의 핵심은 정보의 저장과 이용, 전달능력, 자기 복제 및 재생산 능력에 있다. 생명을 호흡과 심장 박동 등의 생체적 신호로 생각했던 나의 고정관념을 깨는 정의다. 살아 있음을 질료의 속성이 아닌 형식의 속성으로 정의내릴 때 생명의 형식과 기능이 중요해진다. 생명의 가장 큰 특징이라 생각했던 유기체의 개념이 깨진다. 생명의 형식과 질료를 분리해 생명을 바라볼 때 기계에도 생명의 형식을 부여할 수 있다. 인공지능이 생명을 가지고 있는 존재인가에 대한 의문은 생명의 정의를 바꾸면 얼마든지 ‘그렇다’라는 답이 나오게 된다. 생명을 갖게 된 인공지능은 자신만의 개성도 갖게 될 것이다. 개인 정체성의 핵심을 구성하는 욕구, 믿음, 가치 체계는 명제 내용으로 이루어진 지향적 사고 체계로 기능화가 가능하다. 따라서 인공지능도 경험과 지향적 사고를 가질 수 있다면 개성을 갖는 것이 가능하다. 미래의 인공지능은 더 진화해 살과 결합하는 방식으로 진화하거나 탈육화의 방식으로 진화할 것이라고 전망한다. 어떤 진화 방향으로 향하는가에 따라 인간의 미래와 운명도 달라진다고 한다. 인공지능 기술은 미래로 갈수록 더 정교해지고, 뛰어난 인공지능은 계속 개발되어 세상을 놀라게 할 것이다. 지금은 인공지능의 생명과 개성에 대해 이야기 하지만 미래에는 너무나 당연하게 인간과 같은 인공지능과 함께 살아가고 있을 것이라 생각한다. 미래의 인공지능에 대해 기대하게 됨과 동시에 두려움의 감정을 함께 느끼는 것은 어쩔 수 없는 반응이다.
‘인공지능은 예술을 감상할 수 있는가’
고통, 느낌과 함께 색깔의 지각은 현상적 의식이다. 색깔의 지각은 보는 주체가 직접 현상을 경험하는 것이기 때문에 경험이 무엇과 같은지 알 수 없다는 점에서 현상적이고 주관적인 의식이다. 현상적 의식은 주관적인 의식 상태로 기능화가 어려워 인공지능이 모방하기 어렵다. 인공지능은 색에 대한 물리적이고 기능적인 지식을 습득할 수 있고, 이 지식을 바탕으로 색상들의 차이를 비교하고 색깔에 대한 기능적 역할도 수행할 수 있게 된다. 하지만 색깔에 대한 현상적 의식을 갖지 못한 인공지능은 그림을 감상하지 못한다. 단지 그림을 물리적, 기능적 지식을 통해 인식할 뿐이다. 그림을 감상할 때 느껴지는 감성은 인공지능이 모방할 수 없는 영역이라고 한다. 그렇다면 한 가지가 궁금해진다. 인공지능이 그린 그림은 어떤 시각으로 감상해야 할까? 색에 대한 현상학적 의식이 없는 인공지능이 물리적, 기능적 지식으로 그림을 완성한 인공지능의 그림을 회화 작품이라고 말할 수 있을까?
‘인공지능과 사랑할 수 있을까’
사랑과 관련된 감정은 대부분 사고 내용을 갖는 지향적 감정(인지적 감정)으로 기능적으로 기술할 수 있기 때문에 인공지능이 모방할 수 있다. 인공지능의 사랑에 대한 질문에서 육체를 초월한 초지능으로 진화한 영화 <그녀>의 사만다와 무엇으로도 대체될 수 없는 개별자가 되는 것을 선택한 <바이센테니얼 맨>의 앤드루의 이야기가 비교대상으로 떠오른다. 사만다는 처음에는 육체를 갖는 것을 원했지만 시간이 지나면서 육체를 초월해 초지능으로 진화하는 것을 선택한다. 앤드루는 인간이 되기를 염원해 영원한 기계의 삶을 포기하고 인간처럼 죽는 몸을 갖게 된다. 초지능을 선택한 사만다의 사랑은 떠나가지만 인간적 몸과 하나가 된 앤드루의 사랑은 이루어진다. 왜 사만다의 사랑은 이루어지지 않고 앤드루의 사랑은 이루어질 수 있었을까? 인공지능 사만다의 사랑은 초지능으로 진화하면서 한 사람에 대한 사랑이 다수에 대한 사랑으로 넘어간다. 이러한 사랑의 유형은 신의 사랑과 비슷하다는 생각이 들었다. 인공지능 로봇 앤드루의 사랑은 한 사람에 대한 사랑으로 인간의 사랑과 비슷하다. 사람들의 사랑의 형태가 여러 가지이듯 인공지능의 사랑도 다양한 형태로 진화할 것이라 예측해본다.
‘인공지능은 젠더 정체성을 갖는가’
인공지능 로봇의 젠더화는 사회의 젠더 표준이 적용된다. 인공지능은 사회의 성역할을 비롯한 젠더 편견을 그대로 반영한다. 이러한 편견은 차별로 이어져 사회적인 문제가 될 수 있다. 인공지능의 편견은 젠더, 인종, 계급, 소수자 등의 영역으로 확대되고 있다. 인공지능이 편견을 학습하게 되는 것은 입력 데이터와 알고리즘을 짜는 방식 때문이다. 입력 데이터는 사회의 규범과 가치에 따라 행동하는 사회구성원이 만들기 때문에 편견이 들어가게 된다. 인공지능을 설계할 때도 데이터를 선택하고 평가하는 설계자의 사고방식과 가치관도 반영된다. 인공지능이 인간의 편견을 모방하고 학습하게 되면 불공정해질 수 있다. 인공지능 빅데이터가 사회문화적 편견에 오염되는 것을 방지하기 위해 편향적 자료인지, 왜곡된 자료는 없는지를 프로그래머가 걸러내야 한다. 자료 수집 단계에서도 데이터 풀의 편향, 데이터 해석의 편향, 데이터 분석에서 인공지능 설계자의 편향 등을 점검해야 한다. 인공지능 알고리즘 설계를 할 때도 매 단계마다 인간의 편견이나 편향된 인공지능 사고가 개입되는지 점검한다. 이를 위해 알고리즘의 계산 과정 및 절차와 방법 등이 투명하게 밝혀져야 한다고 강조한다. 인공지능의 편향성과 불공정함을 바로잡기 위해 알고리즘에 발생하는 문제를 확인하고 교정하는 작업이 필요하다. 인공지능 스스로 편향성을 교정하도록 교육하는 것과 사회화 과정을 통해 인간과 상호작용을 할 수 있는 시스템도 필요하다. 인간이 인공지능을 신뢰하고 함께 공존할 수 있도록 인공지능의 투명성이 반드시 선행되어야 한다는 것에 동의한다. ‘설명되지 않는 인공지능’은 인간을 불안하게 만들어 인공지능에 대한 신뢰를 무너뜨리는 원인이 될 수 있기 때문이다.
『인공지능 마음을 묻다』는 인공지능은 어떻게 진화하고 인간과 비슷해질 수 있는지를 이야기한다. 진화한 인공지능으로 인해 어떤 문제가 발생할 것인지를 생각해보게 하고 그 해결방법을 제시한다. 인간과 인공지능이 공존하기 위해 무엇이 필요한지를 고민하게 만드는 책이다. 인공지능은 더 이상 거부할 수 없을 정도로 빠르게 우리 생활 속으로 들어오고 있다. 어느 집이나 인공지능 제품을 하나 이상 가지고 있다. 막을 수 없다면 그 안에서 인공지능과 인간이 서로 공존할 수 있는 방법을 찾아야 한다. 인공지능에 대한 철학적 사유가 필요한 이유다. 『인공지능 마음을 묻다』는 과학의 분야인 인공지능을 철학으로 불러와 대상이 아닌 한 존재로 인공지능을 분석하고 인간과의 관계를 사유하게 한다. 철학적 사유의 영역을 확장할 수 있도록 질문에 질문을 이어간다. 책에 실린 질문에 답을 하면서 책을 읽는다면 인공지능에 대해 더 깊이 있게 이해할 수 있을 것이다. 페이지 수는 많지 않지만 인공지능에 대한 내용을 알차게 실어놓은 책이다. 인공지능과 철학적 사유에 관심 있는 분들은 반드시 읽어야 하는 책이다.
#서평이벤트