챗GPT, 기회인가 위기인가 - GPT-4로 급변하는 미래 산업 트렌드 전망
서민준 외 지음 / 동아엠앤비 / 2023년 4월
평점 :
장바구니담기


유발 하라리가 '호모 데우스'를 출간했을 때, 나는 책을 읽지도 않고 미래는 인류 모두가 기계와 결합하여 신의 반열에 오를 것을 상상했다. 그리고 '호모 데우스'에서 그러한 미래를 예언했으리라 믿었다. 그러나, 유발 하라리는 일부는 '호모 데우스' , 일부는 '신이된 인간'이 되고, 일부는 신이되지 못할 것이라 예언했다. GPT를 처음 알게 되었을 때, 나는 '호모 데우스'라는 책을 떠올렸다. 인류의 미래에는 천년 왕국이 예약되어 있지 않다. 새로운 과제가 인류에게 던져졌다. GPT를 사용할 줄 아는 사람과 사용하지 못하는 사람 사이에 새로운 구분선이 생길 것이라는 예상이 머릿속을 스쳐지나갔다. 그래서 'GPT 위기인가, 기회인가'라는 책을 꺼내 들었다.

 

GPT가 출현하고 우리에게 던져준 충격파는 과히 대단하다. 미술분야로 진로를 결정했던 한 학생은 인공지능 프로그램이 자신보다 그림을 더 잘 그린다면 진로를 심각하게 고민했다. 소설, 시 등의 인간만이 할 수 있으리라 생각했던 창작의 영역도 인공지능이 수행할 수 있게 되었다. 서점가에는 챗GPT가 창작에 참여한 작품들이 쏟아져 나오기 시작했다. 그런데, 더 놀라운 현실은 챗GPT와 같은 '언어 모델의 능력은 '발견'이라는 용어를 사용할 정도로 새로운 생명체를 발견하고 특정을 알아가는 느낌'(79)이라고 저자가 말할 정도로 그 가능성이 무궁무진하고 "어떨 때는 무섭기도하다."는데 있다. 인공지능 개발자들이 6개월 동안만이라고 인공지능 개발을 멈추고 진지한 논의를 하자고 제안할 정도로 챗GPT 이후 우리는 인공지능이라는 광풍속을 고속으로 질주하고 있다.

폭풍처럼 몰아치는 인공지능의 발전을 인류가 막을 수 없다. 그 폭풍 속에서 생존하기 위해서 챗GPT를 활용할 줄 알아야 한다. 고 이어령 교수가 '말과 경쟁하려하지 말고, 말에 올라타라!'라고 말했듯이, GPT와 경쟁하려 하지 말고, GPT에 올라타서 챗GPT가 나의 말이 되게 해야한다.

그렇다면, GPT에 올라탈 수 있는 방법은 무엇일까? 책에서는 "어떤 일을 하건 인공지능이 대신할 수 없는 결정과 판단을 내리고 새로운 가치를 만들어 내는 역량을 갖도록 성장하는것"(136)을 주문한다. GPT가 사람이 아니기에 어떠한 결정에 법적 책임을 질 수 없다. GPT가 사람을 도와줄 수는 있으나 결정을 해서는 안된다. 결정은 인간이 해야만한다.

예를 들어 인공지능이 생성한 콘텐츠의 신뢰도와 정확성을 판단하고 인공지능이 작성한 초안을 바탕으로 더 좋은 콘텐츠를 내놓을 수 있어야 한다. 그리고 그러기 위해서는 챗GPT를 잘 활용하기 위해서 잘 질문하는 능력이 필요하다. GPT와 함께 일을 할 수 있는 '코파일럿 활용'능력이 필요하다. 이에 따라서 우리 교육도 잘 질문하는 능력과 코파일럿 활용 능력을 기를 수 있도록 해야한다.

장병택 교수는 인공지능 수준을 6단계로 나누었다. 그중 레벨5는 강인공지능이다. 인간처럼 학습하고 판단할 수 있는 인공지능이다. 레벨6은 초인공지능이다. 전세계 인류 지능의 총합을 뛰어 넘고, 스스로 자아를 갖고 발전한다. 이러한 특이점을 2045년으로 보았다. 초인공지능이 출현하며 인류는 기술이 기술을 발전시키는 시대를 맞이해야 한다.

생각만해도 끔찍한 초인공지능의 시대에 인간은 인공지능에게 사육당하며 행복한 삶을 살 수 있을까? 어떤이는 인간은 제3의 두뇌를 갖게 될 수도 있다고 말한다. 논리의 좌뇌와 감성의 우뇌에 이어서 정보제공과 데이터 분석을 담당하는 인공지능 두뇌 즉, 인공지능이 세번째 두뇌라는 것이다. 그렇게 된다면 인간의 지능을 대폭 향상시키기 위해서 트랜스휴먼화가 진행 될 수도 있다. 트랜스 휴먼이 초인공지능에 대항마일 수도 있다. 그러나 초인공지능을 탑재한 호모 데우스가 된 인류와 그렇지 못한 인류의 새로운 계급이 생겨날 수도 있다.

그러나, 초인공지능을 탑재한 호모 데우스와 그렇지 않은 인류의 대립을 논하기보다는 챗GPT로 대표되는 인공지능에 인류가 노예가 되지 않는 길을 먼저 고민하는 것이 먼저라 생각한다. 프로그램이 인공지능에 도달했는지 아닌지를 판별하는 것을 튜링 테스트라한다. 그런데, 인공지능은 역으로 인간을 테스트한다. 이른바 역튜링 테스트(Reverse Turing Test)가 이뤄진다.

 

"챗봇은 역튜링 테스트를 통해 면접관의 지능 수준에 따라 페르소나를 구성할 수 있고, 또한 판단 과정의 일부로 면접관의 의견을 페르소나에 통합하며 답변을 통해 면접관의 편견을 강화한다."-(30)

 

이 부분을 읽으며 소름이 돋았다. 인간이 챗봇을 테스트하고 이용하지만, 챗봇도 인간을 테스트하며 그들의 편견을 강화시키고 있었다. 인간을 돕기 위해서 만들어진 인공지능이 오히려 인간의 편견을 고착화시키고 인간의 정신을 황폐화시킬 수 있음을 유추할 수 있다. 이 책의 저자는 챗봇 엘리자를 만들었지만 인공지능 분야에 회의를 느끼고 떠난 바이첸바움의 책 '컴퓨터의 힘과 인간의 이성'이라는 책의 일부분을 이용한다.

 

"기계와 함께 하루하루를 살아가면서 스스로 노예가 되었다고 믿는 사람들이 인간이 기계라고 믿기 시작하는 것은 당연하다."-193

 

고된 창작의 작업을 겪지 않고 챗GPT를 활용해서 쉽게 쓰여진 소설들이 넘쳐난다면 자기 복제한 수많은 표절물들이 넘쳐나는 세상이 될 것이다. 창작의 영역에 챗GPT가 도움을 줄 수는 있지만, 어디까지나 챗GPT는 보조적 수단이어야 한다. GPT에게 모든 창작의 권한을 넘겨주는 순간, 인간은 스스로 노예가 되고 만다. 그러한 사람이 인간이 기계라고 믿는 것은 너무도 당연할 것이다. 그리고 그들은 챗GPT로 대표되는 인공지능의 노예가 될 것이다.

 

진정한 의미의 인공지능과 인간의 대결은 지금 시작되었다. 인공지능의 노예가 되지 않고 주인으로 인공지능을 부릴 수 있는 인간을 길러낼 방법을 우리 사회는 고민해야한다. 그리고 그 첫걸음은 최종 판단의 주체는 인간이며, 책임의 주체도 인간이라는 사실을 주지하고, 모든 창작의 최종 주체도 인간이 되어야함을 깨닫는데서 시작해야 한다.


댓글(0) 먼댓글(0) 좋아요(27)
좋아요
북마크하기찜하기 thankstoThanksTo