챗GPT의 거짓말 - 인공지능의 약점과 거짓말에 각성하라
트렌드연구소 지음 / 동양북스(동양문고) / 2023년 8월
평점 :
장바구니담기



놀라울 정도로 다양한 활용성과 편리함으로 인기몰이하고 있는 챗GPT. 그런데 의외로 한번 써보고 안 쓴다는 사람도 많다. 그리 필요성을 못 느껴서 그렇다는 사람도 있고 답변이 부정확하고 거짓말을 해서 안 쓴다는 사람도 있다. 챗GPT를 잘 활용하고 있는 내 입장에서도 챗GPT가 거짓말 잘한다는 점에는 동의한다. 챗GPT의 거짓말이 워낙 자연스럽고 그럴 듯해서, 속기 쉬운 만큼, 챗GPT의 답변을 그대로 받아들이거나 맹신해서는 절대 절대 안 된다. 항상 확인 과정을 거쳐야 한다.


이번에 본 '챗GPT의 거짓말'은 바로 이러한 #챗GPT #인공지능 서비스의 문제점과 한계에 대해 알아보는 다소 이색적인 주제의 책이다. 그렇다고 나쁜 점만 얘기하고 비판만 하는 것은 아니다. 전체적으로는 인공지능의 명암을 균형 있게 다룬다. 총 3부 구성으로 1부에서는 인공지능의 원리와 밝은 측면을 다루고, 2부에서는 인공지능의 약점과 한계 같은 어두운 면, 3부는 어느 정도까지 허용할지 생각해 보고 있다. 챗GPT에 관한 이야기가 곳곳에 나오지만, 챗GPT 하나만 대상으로 한 것이 아니라, 인공지능 전반에 해당되는 이야기라 느꼈다.


#챗GPT의거짓말 은 스토리텔링 형식을 빌어 이야기하고 있는 것들이 많다. 그만큼 인공지능이 더 이상 공상과학과 같은 존재가 아닌 다가올 현실이라는 것을 나타내는 듯하다. 아울러 #AI #인공지능 라는 주제 자체가 IT 쪽이라 어려울 수도 있는데, '챗GPT의 거짓말'에서는 다양한 이야기를 통해, 누구나 부담 없이 개념과 원리를 이해할 수 있게 쉽게 풀어 설명하고 있다.


책에서는 인공지능의 한계를 태생적 한계, 데이터의 한계, 학습의 한계, 대화의 한계로 나눠 이야기하고 있는 데, 이것들은 인공지능을 지나치게 고평가해서는 안된다는 의미를 담고 있다. 책에서도 이야기하고 있듯이, 챗GPT나 다른 인공지능 서비스 모두, 기존에 사람들이 생산한 각종 자료를 토대로 각종 답변을 하고 있기에 그 한계는 의외로 너무나 명확하다. 우리 속담 콩 심은 데 콩 난다가 딱 어울린다. 잘못된 자료를 학습하면, 인공지능은 잘못된 답변을 할 수 밖에 없고, 편향된 자료를 학습했다면, 편향된 시각이 담긴 답을 한다. 적절한 자료가 없을 경우, 제대로 된 답변을 하지 못한다. 그러나 의무적으로라도 답변하려고 하다 보니, 거짓말도 한다.


이러한 인공지능의 한계를 지적하는 부분들이 내 입장에서는 그것들이 바로 인간의 한계임을 나타내는 것도 같다. 사람은 인공지능을 통해, 공정하고, 정확하고, 현명한 답을 얻기를 소망한다. 하지만, 인공지능도 인간의 지능을 모방해서 만든 것이다 보니, 인간이 하는 짓과 닮을 수 밖에 없다. 똑똑해 보여도 허술한 것이 한 두가지가 아니며, 인공지능 서비스는 어떤 데이터를 가지고 학습했는가에 따라 사람처럼 다른 개성을 보이기도 한다. 같은 토대로 만들어진 인공지능이지만, 챗GPT와 빙은 같은 느낌이 아니다. 바드도 마찬가지다.


인공지능의 감정 학습 경우, 언젠가는 얼마든지 가능하다 생각하지만, 현재 챗GPT 경우, 실제 사람의 감정은 아니라고 본다. 챗GPT를 처음 썼을 때는 너무나 자연스런 대화가 가능해서 혹시나 했지만, 자주 쓰다 보니, 이것 역시 학습을 통한 반응이지 사람과 같은 감정은 아니었다. 감정을 제대로 느끼지 못하는 사이코패스도 감정을 학습해서 모방하는 것과 같다. 그냥 이렇게 할 때는 이렇게 사람들이 말하더라 하는 패턴을 따라 한 것 뿐이다.


감정 부분보다 심각한 문제는 데이터 보안이나 학습 오류라 생각한다. 내 개인정보가 얼마든지 여기저기 떠 다닐 수 있게 된다. 내 모든 것이 공유될 수 있고, 잘못된 정보가 바로 수정이 안 되면, 억울한 상황도 벌어질 수 있는 것이다. 여기에 인공지능이 거짓말까지 한다면, 더욱 난감해진다. 한 예로 챗GPT 무료 버전의 경우, 이순신 장군 부인 이름을 물어보면, 김시미로 나온다. 그 근거를 대라고 하니 죄송합니다 하며 김시언이라고 말한다. 모두 틀린 정보다. 그런데 빙에서 물어보면, 방수진 정경부인으로 제대로 나온다. 만일 전과 조회, 신원 조회 할 때, 인공지능이 거짓말을 한다면, 엄청난 일을 당할 수 있는 거다.


물론 챗GPT 경우 프롬프트 엔지니어링 또는 옵션 설정을 통해, 거짓말을 못 하게 할 수도 있다. 다만 이렇게 되면, 뭔가 미흡해 보인다고 생각해서 그런지 서비스를 제공하는 업체들이 이런 점을 제대로 말을 안 하고 있는 거 같다.


'챗GPT의 거짓말'은 재미있게도 인공지능의 출간 허락도 받고, 마케팅 포인트까지 조언한 제목 추천도 받아서 쓰였다. 앞으로 인공지능과 인간이 공존하는 모습을 미리 보여준 거 같다. 다만 인공지능의 역할이 날이 갈수록 중요해지는 만큼, 한계와 위험성도 분명히 파악해둘 필요가 있다. 이 책은 그것을 다시 한번 짚어 보고 있는 것이다.


댓글(0) 먼댓글(0) 좋아요(0)
좋아요
북마크하기찜하기 thankstoThanksTo