챗GPT의 거짓말 - 인공지능의 약점과 거짓말에 각성하라
트렌드연구소 지음 / 동양북스(동양문고) / 2023년 8월
평점 :
장바구니담기


챗GPT는 인공지능 언어 모델로써 막대한 양의 텍스트 데이터를 학습하여 사람과의 대화를 생성하는 '생성형 AI'의 일종입니다. 이러한 AI 언어모델의 경우, 주어진 데이터 또는 맥락(context)에 근거하지 않은 잘못된 정보나 허위 정보를 생성하기도 합니다.

일종의 '그럴싸한 거짓말'이라 할 수 있으며, 이를 보통 AI 언어모델의 '환각현상(할루시네이션, hallucination)'이라고 말하기도 합니다. 이는 모델이 현실과는 상관없는 비현실적인 내용을 생성하는 경우 종종 일어나는 현상입니다. 예컨데, 챗GPT가 미래의 사건을 예측하거나 실제로 일어나지 않은 상황을 설명하는 경우가 이에 해당합니다.

이제 어느덧 챗GPT가 출시된지 근 10개월이 지난 시점에서 그리고 유사한 AI 언어모델 서비스가 앞다투어 출시되고 있는 상황에서 사용자로서 인공지능의 답변에 신뢰도를 가질지 말지에 대한 판단과 선택의 순간이 다가왔습니다.


오늘 소개해 드리는 <챗GPT의 거짓말>에서는 인공지능의 한계와 위험에 대해 포커스를 맞추고 있습니다.

예컨데, 인공지능이 CCTV 데이터, 각종 카메라, 네트웤에 연결된 SNS 상의 데이터 등 실시간 데이터를 통해 정보를 이용하는 경우, 혹은 과거의 모든 행적을 지닌 서버 상의 데이터를 이용하게 되면 벌어지게 될 개인 정보 혹은 사생활 침해 뿐 아니라 사람의 움직임, 일, 휴식, 사고방식, 생각, 마음까지도 모든 것들을 통제할 수 있는 감시와 통제 사회가 도래할 것이라는 위험성을 지적합니다.

말 그대로 조지오웰의 소설 '1984'의 디스토피아의 재현이라 하겠습니다.

또한 인간이 지적하기 전까지는 자기의 대화가 '거짓말'임에도 진실처럼 이야기하는 인공지능의 그럴싸한 거짓말과 그 위험성에 대해서도 폭로하고 있습니다. 그런 의미에서 챗GPT와 같은 생성형 AI의 답변을 진실이라 믿어서는 안되며, 특히 검색을 대신할 수 없다는 사실을 기억할 필요가 있습니다.

크게 3부로 나눠진 본서의 구성은 1부를 통해 챗GPT의 다소 기술적인 내용과 작동원리, 인공지능과 미래일자리 문제 그리고 그림 그려주는 인공지능인 달리를 위시한 다양한 '인공지능 플랫폼'을 소개하는 것으로 지면을 할애하고 있답니다.

책의 메인이기도 한 2부에서 본격적으로 챗GPT와 같은 인공지능의 태생적인 한계와 더불어 데이터의 한계 그리고 인공지능 학습의 한계에 대해 다루고 있습니다. 특히 학습에 사용된 데이터의 편향성, 오류, 누락, 과적합 그리고 크기라는 약점 때문에 인공지능이라 해서 100% 맞는 답변을 하는게 아니라는 사실을 반드시 기억해야 합니다.

이런 데이터의 약점을 미리 알고 인공지능을 이용하다 보면 예기치 않은 상황을 미리 예방할 수 있다는 것이 저자의 주장이기도 합니다.

이와 더불어 '그럴싸한 거짓말'을 정말 그럴싸하게 하는 인공지능의 학습의 약점을 가감없이 드러냅니다. 앞서 말씀드린 '환각'을 비롯하여 '학습의 역효과', '학습의 편향성', 그리고 '학습 오류' 등은 결국 학습을 시키는 인간의 약점과 한계성을 그대로 노출시킨 것​에 다름 아닙니다.

그러나 이는 단순한 문제라기 보다는 오히려 인공지능의 위험성을 나타내는 상황이라 하겠습니다. 누군가 나쁜 의도로 2X3=6이 아니라 2X3=8이라고 학습시킨다면 우리 생활 곳곳에 사용되면서 심각한 오류를 불러올 것은 자명한 일일 겁니다.

사실 이러한 인공지능의 한계의 위험성에 맞서 유럽연합 등에서는 인공지능 규제법으로 인공지능 관련 무분별한 행동을 제어하려는 움직임이 거세게 일고 있습니다. 물론 다른 국가들에서도 관련 법들이 제정될 움직임이 일고 있지요.

이러한 법 제도 마련을 통해 인공지능이 악용되는 사례를 미리 방지하고 인간의 삶에 도움이 되는 인공지능 산업으로 성장하기 위해서는 관련 기관 단체 그리고 국가의 확고한 의지가 필요하다 생각됩니다.

마지막으로 저자는 "인공지능은 절대 인간을 이길 수 없다"고 주장합니다. 바로 인공지능은 인간의 데이터를 먹고 살기 때문이라는 것이 그 이유입니다. 인간의 데이터 입력 없이는 인공지능은 절대 생존 불가이기 때문이라는 것이죠.

인공지능은 누군가의 데이터, 누군가 인터넷에 업로드했던 데이터를 재조합하고 변형해서 마치 자신의 고유 의견인양 내놓는 것에 다름아니기 때문입니다.

마지막 문장이 눈에 띕니다. "인공지능이 필요로 하는 데이터를 줘야 할지, 안 줘야 할 지를 선택하는 건 처음부터 인간의 몫이었습니다."

인공지능의 '그럴싸한 거짓말'이 어떻게 이뤄지며, 그 원인이 되는 한계와 위험성에 대해 깊이있는 인사이트를 던져주고 있는 책으로 평가합니다.

관심있는 분들의 일독을 기대합니다.


댓글(0) 먼댓글(0) 좋아요(0)
좋아요
공유하기 북마크하기찜하기 thankstoThanksTo