AI 버블이 온다 - 우리는 진짜 인공지능을 보고 있는가?
아르빈드 나라야난.사야시 카푸르 지음, 강미경 옮김 / 윌북 / 2025년 12월
평점 :
장바구니담기



이 포스팅은 윌북 출판로부터 도서를 제공받아 주관적인 관점에서 살펴보고 작성했다.


최근 전 세계 IT 업계와 금융권에 'AI 회의론'이 거세게 불고 있다. 골드만삭스가 AI 투자 대비 수익성에 의문을 제기하고, 구글의 순다르 피차이와 오픈AI의 샘 올트먼 등 업계 거물들조차 '버블'의 존재를 인정하면서 시장의 분위기는 급격히 냉각되는 추세다.


이러한 혼돈 속에서 프린스턴대학교 컴퓨터과학자들이 내놓은 <AI 버블이 온다>는 지금의 AI 열풍을 19세기 사기극인 ‘뱀기름(Snake Oil)’에 비유하며 날카로운 비판을 가하고 있다. 저자들은 AI를 하나의 덩어리로 보지 말고, 실제로 작동하는 기술과 환상에 불과한 기술을 엄격히 구분해야 한다고 역설한다.


특히 채용, 의료, 치안 등 삶의 중대사를 결정하는 데 쓰이는 ‘예측형 AI’야말로 가장 위험한 현대판 뱀기름이라고 정의한다. 예를 들어, 시카고가 도입한 총기 탐지 시스템 ‘샷스포터’는 수백억 원의 예산을 투입했음에도 범죄 예방 효과를 입증하지 못한 채 세금만 낭비한 대표적 사례로 꼽힌다. 미국 최대 의료 기업 에픽(Epic)의 패혈증 예측 모델은 정확도가 동전 던지기 수준에 불과해 환자의 안전을 위협했다.



저자들은 특히 인간의 사회적 미래는 본질적으로 예측이 불가능하며, 데이터를 아무리 많이 학습시켜도 통계적 한계를 넘어서는 ‘지능’은 존재할 수 없음을 과학적으로 증명한다. 또한 챗GPT로 대표되는 생성형 AI에 대해서도 냉정한 분석을 내놓았다.


생성형 AI 기술의 유용성은 인정하지만 이것이 진정한 사고 능력이 아닌 확률에 기반해 그럴싸한 답변을 내놓는 ‘확률적 앵무새’에 불과하다는 점을 명확히 선언한다. AI 기자의 오류투성이 기사로 망신을 당한 CNET 사건이나, 가짜 판례를 제출했다가 자격 정지를 당한 변호사 사례는 AI 기술의 한계를 직시해야 함을 시사한다.


또한 80년 컴퓨터과학 역사를 관통하며 AI가 ‘할 수 있는 일’과 ‘할 수 없는 일’의 경계선을 명확히 그어줌으로써 대중이 품고 있는 마법 같은 환상을 걷어낸다. “AI가 모든 것을 바꿀 것”이라는 모호한 마케팅 문구에 현혹되지 않는 ‘정확한 눈’을 가질 것을 주문한다.



특히 수조 달러가 오가는 AI 시장에서 ‘진짜 혁신’과 ‘가짜 기술’을 구분하는 실용적 기준을 제시한다. 저자들은 “이 책을 읽지 않았다면 AI 주식에 한 푼도 투자하지 말라”고 단언하며, 거품이 꺼질 때 함께 추락하지 않기 위한 안목을 강조한다.


또한 수억 원대의 AI 솔루션 도입을 검토하는 기업들에 데이터의 오차 범위와 훈련 방식을 따지는 날카로운 질문자가 될 것을 권고한다. 그렇지만 이 책이 전하는 메시지는 AI 기술 비관론이 아니다. 오히려 ‘안 되는 기술’을 과감히 버리고 ‘되는 기술’에 집중해야만 진정한 혁신이 가능하다는 가장 현실적인 기술 낙관론에 가깝다.


AI가 인류를 멸종시킨다는 거대 담론보다 지금 당장 우리의 지갑과 삶을 위협하는 ‘가짜 AI’를 가려내는 것이 시급하다는 것이 이 책에서 저자들이 전하고자 하는 메시지다.


* 출처 : 박기자의 끌리는 이야기, 책끌


댓글(0) 먼댓글(0) 좋아요(0)
좋아요
공유하기 북마크하기찜하기 thankstoThanksTo