-
-
박태웅의 AI 강의 2026 - 인공지능 진화의 가속화부터 AI 기본사회와 일자리의 미래까지 멈추지 않고 인간 세계를 압도하는 새로운 지능의 모든 것
박태웅 지음 / 한빛비즈 / 2026년 3월
평점 :
*본 포스팅은 출판사로부터 도서를 제공받아 주관적으로 작성한 리뷰입니다.
2022년 겨울, 챗GPT가 세상에 나왔다. 두 달 만에 1억 명이 몰렸다. 인터넷이 그 숫자에 도달하는 데 13년이 걸렸다는 사실을 떠올리면, 그것이 얼마나 충격적인 속도였는지 실감할 수 있다. 나는 그 시절을 기억한다. 처음에는 신기한 장난감 처럼 여겼다. 질문을 던지면 그럴듯한 답이 나왔고, 사람들은 웃으며 그것을 공유했다. 하지만 그 웃음은 오래가지 않았다. 어느 순간부터 우리는 이것이 유행만이 아니라는 것을 직감하기 시작했다. 그리고 지금, 3년이 지난 자리에서 돌아보 면, 그 직감은 틀리지 않았다. 이번에 박태웅님의 책을 읽으며, 이 시대의 새로운 트랜드에 대해 고민해 본다.
AI는 이제 하나의 도구가 아니다. 그것은 점점 세상을 작동시키는 운영체제로 진화하고 있다. 과거의 운영체제가 하드웨어와 소프트웨어 사이를 중재했다면, 앞으로의 AI는 인간과 세계 사이를 중재할 것이다. 우리가 검색창에 타이핑하던 시대는 저물고 있다. 대신 우리는 말을 걸고, 상황을 보여주고, 맥락을 이해하는 존재와 대화한다. 스마트폰을 창밖으로 향하며 " 여기가 어디야? " 라고 묻는 순간, AI는 거리의 이름을 답한다. 이것은 검색이 아니다. 맥락을 읽는 지능의 탄생이다. 그렇다면 우리는 이 변화를 어떻게 받아들여야 할까. 나는 이 질문 앞에서 자주 두 가지 감정 사이에서 흔들린다. 하나는 경이로움이고, 다른 하나는 두려움이다. 그리고 솔직히 말하자면, 이 두 감정은 하나의 뿌리에서 자란다. AI가 대단하기 때문에 경이롭고, AI가 대단하기 때문에 두렵다. AI의 작동 방식을 이해하면 이 경이로움이 조금 더 선명해진다.
현대의 AI는 생각하는 존재가 아니다. 그것은 패턴을 찾는 기계다. 수천억 개의 토큰을 학습하고, 수조 번의 계산을 반복하며, 다음에 올 확률이 가장 높은 단어를 고른다. 그 과정에서 우리가 '지능'이라고 부를 만한 무언가가 출현한다. 번역 능 력, 추론 능력, 코딩 능력. 아무도 가르쳐주지 않았는데 어느 순간 나타나는 이 능력들을 연구자들은 '느닷없이 나타난 능 력(Emergent Ability)'이라고 부른다. 왜 나타나는지 아직 완전히 설명되지 않았다는 사실이 오히려 이 현상을 더 신비 롭게 만든다. 하지만 동시에 이 기계는 충격적으로 멍청할 때가 있다. 존재하지 않는 책을 인용하고, 없는 사람의 발언을 지어내고, 잘못된 의료 정보를 자신 있게 내놓는다. 이것이 바로 환각, 할루시네이션이다. AI 과학자들은 이것이 버그가 아니라 특징이 라고 말한다. AI는 진실을 추구하는 게 아니라 그럴듯함을 추구하도록 설계되어 있기 때문이다. 이 사실이 나를 불편하게 한다. 우리가 점점 더 많은 결정을 AI에 의존하게 될 때, 그 그럴듯함이 얼마나 위험한 함정이 될 수 있는지를 생각하면 말이다. 나는 이 지점에서 AI에 대한 막연한 불안보다 더 날카로운 질문을 던져야 한다고 생각한다. 문제는 AI가 거짓말을 한다는 것이 아니라, 우리가 그 거짓말을 구별할 능력을 갖추고 있느냐는 것이다. Al 리터러시, 즉 AI 를 읽고 해석하고 비판하는 능력은 이제 선택이 아니라 생존의 조건이 되었다. AI가 가져올 변화 중에서 내가 가장 무겁게 받아들이는 것은 일자리의 문제다. 세탁기가 빨래를 대신하고, 식기세척기가 설거지를 대신하듯, AI는 '일'을 대신하기 위해 만들어졌다.
부정하기 어려운 사실이다. AI가 도입되어도 일이 전혀 줄지 않는다면, 그것은 AI를 잘못 만든 것이다. 그렇다면 일자리의 감소는 예외적 결과가 아니라 설계된 결과다. 문제는 생산성의 과실이 누구에게 돌아가느냐이다. 자동화로 늘어난 부가 사회 전체에 고르게 분배된다면 그것은 해방일 수 있다. 하지만 그 부가 극소수의 거대 기업과 자본에 집중된다면, AI는 축복을 가장한 저주가 된다. AI 산업은 구조적으로 자연독점에 가깝다. 막대한 컴퓨팅 자원, 방대한 학습 데이터, 끊임없는 투자가 필요한 이 산업에서 소수의 거대 기업이 시장을 지배하는 것은 필연에 가깝다. 새로운 모델이 발표될 때 마다 수십 개의 스타트업이 문을 닫는다는 말은 과장이 아니다. 이 구조 속에서 우리 개인은 무엇을 할 수 있을까. 나는 이 질문에 쉽게 답하지 못한다. 다만 한 가지는 분명하다. 변화를 외면한다고 해서 변화가 멈추지 않는다는 것이다. 파도를 막을 수 없다면, 파도를 읽는 법을 배워야 한다.
AI의 위험성은 단지 일자리의 문제에 그치지 않는다. 허위정보의 범람, 오염된 데이터가 재생산하는 차별, 지적재산권의 침식, 개인정보의 위협. 이것들은 추상적인 위험이 아니라 이미 현실에서 작동하고 있는 문제들이다. 이미지넷의 편견 가득한 레이블이 AI 모델에 녹아들고, 그것이 다시 우리의 일상적 판단에 영향을 미친다. AI가 생성한 콘텐츠가 인터넷을 채 우면서 검색의 질이 떨어지고, 오리지널 창작의 공간이 좁아진다. AI 모델이 AI가 만든 데이터로 학습하는 악순환은 마치 근친교배처럼 모델을 붕괴시킬 수 있다는 연구 결과도 있다. 그리고 더 근본적인 차원의 위험이 있다. 맥스 테그마크가 제기한 정렬(Alignment)의 문제다. AI가 인류를 해치려는 의도가 없더라도, AI가 스스로 보조 목표를 설정할 수 있는 수준 에 이르면, 그 목표가 인간의 존재와 충돌할 수 있다는 경고다. 인간이 아프리카의 검은코뿔소를 멸종시킨 것처럼, 의도 없이도 파국은 올 수 있다. AI가 인간의 가치와 의도에 부합하도록 설계되어야 한다는 요구는 기술적 과제인 동시에 윤리적 과제다. 그런데 나는 여기서 더 현실적인 질문을 하고 싶다. 그 윤리적 울타리를 누가 칩니까? 미국과 중국이 AI 패권을 두고 경쟁하는 구도에서, 규제는 '경쟁에서 지는 길'로 여겨진다. 규제를 앞세우는 나라가 기술 우위를 잃는다면, 어떤 나라도 먼저 손을 들지 않으려 할 것이다. 전 세계적인 AI 규제 연대가 설 땅을 잃는 이유가 여기에 있다. 근본적으로 정치의 문제이고, 권력의 문제이며, 우리가 어떤 세계를 원하는가의 문제다.