-
-
생각의 주도권을 디자인하라 - AI를 도구를 넘어 무기로 만드는 질문의 힘
박용후 지음 / 경이로움 / 2025년 7월
평점 :
질문하지 않고 인공지능에 의존하는 6가지 인간상의 미래
박용후의 《생각의 주도권을 디자인하라》를 읽고
AI가 주도하는 생각에 종속당하지 않고 생각의 주도권을 거머쥐기 위해 우리 모두가 해야 할 한 가지는 전대미문의 질문을 던지는 것이다. “지금 내가 알고 있는 것들 중, 무엇이 곧 틀릴 수 있는가?” 옳다고 믿고 있던 신념도 통념으로 뒤바뀔 수 있다. 알고 있다고 생각하는 지식이나 가치관, 판단기준 등이 여전히 현실에서 유용하거나 유효한지의 여부를 부단히 질문을 던져 확인하지 않으면 진리도 무리가 될 수 있는 세상이 지금 우리가 발을 딛고 서 있는 현실이다. 확신은 나도 모르는 사이에 시나브로 부패한다. 부패되는 확신을 방지하기 위해서는 질문을 던져 여전히 확신은 신념으로 작용하는지의 여부를 판단해봐야 한다. 이런 점에서 부패여부를 확인하기 위해 던지는 질문은 방부제다. 질문은 단순히 답을 얻기 위한 촉발점이라기보다 기존의 타성이나 관성에 젖은 고정관념을 통렬하게 깨부수고 낯선 생각을 잉태하게 만들어주는 촉발제다.
우리는 AI가 던져주는 정답을 비판적으로 재해석하지 않으면서도 정작 인간이 무엇을 잃어가고 있는지에 대해서는 깊이 성찰하지 않는다. 스마트함과 편리함, 효율 뒤에 숨은 ‘사고의 실종’은 그 어떤 기술적 진보보다 더 위험한 위기가 될 수 있다. 우리는 이제 단순히 정보를 소비하거나 지시하는 존재가 아니라 AI와 ‘함께 사유하는 존재’로 진화해야 한다. 인간의 가장 강력한 무기인 ‘질문하는 힘’을 가지고 말이다. “질문은 생각의 씨앗”(53쪽)이자 “이 시대의 나침반”이며 “관점을 배우는 레버”(296쪽)이고 “사고를 행동으로 전환시키는 도구”(297쪽)다. 자신이 얻고자 하는 답을 위해 질문만 디자인하지 말고, 자신이 던진 질문에 대해 AI가 대답한 문장에 담긴 주장의 신뢰성이나 타당성에 관한 비판적 질문을 던져야 한다. 질문 없이 AI의 사고 논리나 정답에 의존할수록 AI가 양산하는 방대한 답에 질식사할 수 있다.
AI는 몸이 없어서 직접 겪어본 경험이 없다. 겪어본 이야기가 없기 때문에 AI가 던져주는 답은 자기만의 주관적 신념이나 경험적 통찰이 없다. 문제는 AI를 비롯한 SNS에 의존하며 직접 몸으로 겪어보지 않고 접속으로 대리 경험을 할수록 타인의 아픔에 측은지심을 발동, 공감능력을 발휘할 수 있는 자세나 태도를 갖기 어려워진다는 점이다. 나아가 질문 없이 다른 사람의 생각에 의존, 사고의 식민지화가 가속화되어 결과적으로 AI가 던져주는 주장의 신뢰성이나 타당성에 대해 반문하지도 않는다. 이제 인간은 주체적으로 해석할 수 없어서 자기 주도적으로 뭔가를 선택하지 못하는 수동적이고 종속적인 인공지능만도 못한 인간지능으로 전락하기 시작한다. 그래서 탄생하는 6가지 인간상을 생각해 보았다.
①경험하지 않는 인간-모험이 부족한 인간
AI가 제공하는 가상 경험이나 정제된 정보에만 의존하여, 실제 세계에서 직접 부딪히고 시행착오를 겪으며 얻는 생생한 경험과 그 과정에서 얻는 성장의 기회를 상실하는 인간, 즉 경험의 폭이 좁아지는 인간(The Experientially Limited Human)이다. AI 기반 여행 추천 앱이 제시하는 최적화된 경로와 유명 관광지 정보만을 맹신하여, 예상치 못한 장소를 발견하거나 현지인과의 우연한 만남을 통해 얻을 수 있는 특별한 경험의 기회를 놓치는 여행자가 여기에 해당된다. 《경험의 멸종》에 보면 베자듀(Veja du)라는 개념이 나온다. 현실에서 한 번도 경험한 적이 없는 걸 가상으로 경험한다는 의미다. 경험(經驗)과 실험(實驗)을 뜻하는 experience와 experiment에서의 peri-는 ‘시도’에 가깝고, 위험(危險)이나 모험(冒險)을 뜻하는 ‘peril’에서의 ‘peri’는 ‘위험’을 의미한다. 경험은 본래 수준과 강도의 차이는 있지만 근본적으로 위험한 행동이자 실천이다. 위험하다고 경험하지 않고 마치 경험한 것과 같은 가상경험을 반복할수록 베자듀(Veja du)라는 개념을 경험한다. 베자듀는 현실에서 한 번도 경험한 적이 없는 걸 가상으로 경험하는 현상이다. 특정 분야에 대한 지식을 AI 챗봇에게 질문하여 요약된 정보만을 습득하고, 직접 자료를 찾아 읽거나 실험하며 깊이 있는 이해를 추구하는 과정을 생략하는 학생도 베자듀에 해당된다. 하지만 반대로 '베자듀'는 위험한 경험을 하지 않고 가상세계에서 편리하고 편안한 간접경험만 반복하게 만드는 위험성을 지니고 있다. 디지털 가상 기술이 발전하고 인공지능 기술도 더불어 발전하면서 접촉이 없는 접속경험으로 일상이 대체되면서 경험의 뿌리가 뿌리째 뽑히고 있다. “모험이 부족한 사람은 좋은 어른이 될 수 없다.” 일본철도의 광고 카피다.
②공감하지 않는/못하는 인간-맥락을 파악하지 못하는 숙맥
AI가 제공하는 정량적 데이터나 표면적인 정보에만 집중하고, 타인의 미묘한 감정이나 비언어적 신호, 그리고 복잡한 사회적 맥락을 이해하고 반응하는 공감 능력이 저하되는 인간, 즉 공감 능력이 저하되는 인간(The Empathy-Diminished Human)이다. AI 챗봇과의 효율적인 대화에 익숙해져, 사람과의 대화에서 상대방의 표정 변화, 목소리 톤, 몸짓 등 비언어적 신호를 읽어내지 못하고 공감적 반응을 보이지 못하는 사람이다. AI가 필터링하여 제공하는 뉴스나 정보만을 접하며, 사회적 이슈의 이면에 있는 인간적인 고통이나 복잡한 이해관계를 깊이 있게 느끼고 공감하는 데 어려움을 겪는 경우가 이제 일상이 되었다. 공감능력은 상대의 입장에 되어 직접 몸으로 겪어보지 않고서는 생기는 감정이다. 책상에서 머리로 이해하는 걸 배울 수는 있지만 책상에서 다른 사람의 아픔이나 힘든 경우를 가슴으로 공감하는 걸 배울 수는 없다. AI와 오랫동안 대화를 하다 보면 직접 대화를 하면서 상대방의 표정변화나 감정의 기복을 몸으로 감지하고, 그 순간에 내가 어떻게 대응해야 되는지를 느낌으로 알아서 반응하는 감각을 상실하게 된다. 공감하지 못하는 인간은 직접 경험하지 않고 논리적으로 판단하고 이해하는 AI의 알고리즘에 익숙해지면서 더욱 가속화되고 있다. 친구의 고민을 듣고도 AI 상담만을 의존하며, 직접적 공감이나 위로를 해본 경험이 없어질 경우 사람과의 깊은 대화를 통해 상대방의 아픔을 감지하거나 공감하는 능력은 더욱 실종될 가능성이 농후하다.
③생각하지 않는/못하는 인간-판단하지 않는/못하는 인간
AI의 분석 결과나 추천에 전적으로 의존하여, 스스로 비판적으로 사고하고 독립적인 판단을 내리는 능력을 사용하지 않거나 점차 퇴화시키는 인간, 즉 사고와 판단을 위임하는 인간(The Judgment-Outsourced Human)이다. 이는 중요한 의사결정의 주도권을 AI에 넘겨주면서 점차 생각하지 못하는 ‘바보’로 전락하는 위험한 인간이다. 예전에는 궁금한 물음표(?)가 생기면 도서관에 가서 직접 찾아보거나 사람을 만나 물어보는 등 끈질기게 생각하면서 궁리에 궁리를 거듭하다 마침내 감동의 느낌표(!)를 만나는 경험을 했었다. 지금은 물음표가 생기면 바로 인공지능에게 물어본다. 인공지능은 느낌표를 주지 않고 마침표가 찍힌 정답을 순식간에 찾아다 준다. 이제 물음표와 느낌표 사이의 거리가 실종되면서 사람은 더 이상 생각하지 않는다. 궁금한 게 생기면 밖에 가서 Outsourcing하면서 사고의 외주화가 빈번하게 일어나 이제는 주체적 사유능력을 상실하고 사고의 식민지화가 가속화되고 있다. 문제가 터지면 그 문제의 본질이 무엇인지를 파고들거나 해당 문제의 본질에 비추어 볼 때 어떤 해결 대안이 최적의 설루션인지를 문제의 본질에 비추어 따져보지 않고 바로 AI에게 문제의 원인과 해결대안을 물어보고 그에 대한 대답을 아무런 문제의식 없이 받아들일수록 인간지능은 인공지능에 종속되어 간다. 다른 사람의 정보를 수용하며 휩쓸려 떠내려가면서도, 자신의 판단이나 비판적 사고를 기반으로 주체적으로 사유하지 않을수록 사고의 외주화는 가속화될 것이다.
④반문하지 않는/못하는 인간-시야를 상실한 인간
AI가 제공하는 정보나 답변에 대해 비판적인 의문을 제기하거나, 새로운 관점에서 질문을 던지는 대신 주어진 정보를 맹목적으로 수용하는 인간, 비판적 질문이 없는 인간(The Unquestioning Human)이다. AI 챗봇에게 질문하여 얻은 답변의 정확성이나 편향성에 대해 의심하지 않고 그대로 활용하거나, AI의 한계나 윤리적 문제에 대해 깊이 있게 탐구하려 하지 않는 학습자가 여기에 해당된다. AI가 제시하는 분석 결과나 예측 모델에 대해 '왜?'라는 질문을 던지지 않고, 그 작동 원리나 잠재적 오류 가능성을 검증하려 하지 않는 전문가도 문제다. 정답을 찾아내는 데 혈안이 된 나머지 자신이 풀고 있는 문제의 본질과 성격에 대해 스스로 반문하지 않는 인간이 더욱 심각한 문제다. 인간은 질문하고 AI는 대답하기 위해서 존재하는 것이다. 인간의 존재이유는 어제와 따듯한 의심을 품고 전대미문의 질문을 던져 어제와 다른 관문을 열어가는 데 있다. 주어진 문제에 대해 정답을 찾아 설명하는 능력보다 각기 다양한 해답을 요구하는 문제를 제기하는, 문제아의 질문 능력이 더욱 소중하다. AI가 던져준 설명에 의문을 품고 다른 설명논리는 없는지, 그 설명 논리를 뒷받침하는 근본적인 가정이나 전제는 무엇인지를 끊임없이 질문하고 그 질문 자체도 올바른 질문인지를 반문하는 메타 질문도 중요하다. AI의 설명에 문제를 제기하지 않고 의존할수록 설명에 압도당하면서 결국 세상을 다르게 설명할 수 있는 시력은 물론 시야도 읽고 결과적으로 실명당하는 위험에 처할 수 있
⑤해석하지 않는/못하는 인간-해답이 뭔지 모르는 인간
AI가 방대한 데이터를 분석하여 제시하는 결과나 요약에 만족하고, 그 결과의 의미를 스스로 탐구하고 심층적으로 해석하여 자신만의 통찰을 도출하는 능력이 약화되는 인간, 즉, 의미를 해석하지 않는 인간(The Meaning-Uninterpreting Human)이다. AI가 분석하여 도출한 통계적 결과나 패턴만을 받아들이고, 그 결과가 현실 세계에 미치는 함의나 인간 행동의 동기를 깊이 있게 해석하려는 노력을 하지 않는 연구자가 여기에 해당된다. AI가 요약해 주는 영화 줄거리나 책의 핵심 내용만을 보고, 작품 속에 담긴 작가의 의도나 숨겨진 메시지를 스스로 탐색하고 해석하는 즐거움을 놓치는 독자도 마찬가지다. AI 투자 자문 시스템이 제시하는 매수/매도 신호에만 따라 움직이며, 시장 상황이나 기업의 본질적 가치에 대한 스스로의 분석이나 판단 없이 맹목적으로 투자 결정을 내리는 투자자가 이런 인간의 대표적인 유형이다. AI가 생성한 보고서나 제안서를 비판적인 검토 없이 그대로 수용하고, 그 내용의 논리적 오류나 편향성을 스스로 발견하지 못하는 직장인도 여기에 해당된다. 더욱 심각한 문제는 AI가 제공하는 정답을 어떤 자료로 근간으로 작성된 것이며, 어떤 근거로 지금과 같은 판단을 하게 되었는지를 사람들이 모르는 상태에서 무의식적으로 받아들이는 AI의 판단에 전적으로 의존하게 되는 경우다. 자료 편집과정을 생각하지 않는 자료 생성결과를 중심적으로 사고하면서 AI가 왜 그런 결정을 내렸는지 비판적으로 해석하고 윤리적으로 판단하는 능력을 잃어가는 심각한 문제가 대중화되고 있다.
⑥선택하지 않는/못하는 인간-선택당하는 인간
과연 우리는 주체적 관심과 가치판단 기준에 따라 선택하고 있는가? 아니면 인공지능이 알려주는 정답의 이면을 구조적으로 이끌어가는 알고리즘이 추천한 선택에 선택당하고 있는가? 주어진 다양한 선택지 안에서 어떤 판단과 결정이 지금 이 상황에서 올바른 선택인지를 숙고하지 않고 AI 알고리즘이 결정해 준 대로 무의식적으로 따라가는 타성과 관성이 생긴다. AI 알고리즘이 제시하는 최적화된 선택지나 추천에 무비판적으로 순응하며, 자신의 고유한 필요와 가치에 기반한 능동적인 선택권을 상실하는 인간, 즉, 선택을 위임하는 인간(The Choice-Delegating Human)이다. 온라인 쇼핑 플랫폼에서 AI가 추천하는 상품만 구매하거나, 스트리밍 서비스의 AI 추천 목록 외에는 다른 콘텐츠를 탐색하려 하지 않고 그저 제시되는 것을 수동적으로 소비하는 소비자가 여기에 해당된다. AI 기반 직업 추천 시스템이 제시하는 직업군에 자신의 적성이나 흥미를 맞추려 하고, 스스로 다양한 경험을 통해 진정한 열정을 발견하려는 노력을 하지 않는 학생도 전형적으로 선택하지 않고 선택당하는 인간이다. 이게 맞는지를 생각하기도 전에 이게 가장 먼저 떠서 선택당하는 경우가 많아질수록 주도적 판단과 의사결정 능력을 상실한다. 선택은 선별과정이다. 선별하려면 주어진 선택지 중에서 나에게 최선의 대안이 무엇인지를 고르는 선구안(選球眼)이 있어야 한다. 다른 사람의 정보에 휩쓸려 떠내려가면서 주도적으로 의사결정의 기준을 잡고 세상을 뒤흔드는 선택은 영원히 할 수 없는 선택당하는 노예로 전락하고 있다. 더욱 심각한 문제는 알고리즘이 걸러주는 선택에 당할수록 다른 대안을 선택할 가능성이 원천적으로 차단되면서 다르게 생각하기는 아예 불가능해진다.
인공지능은 하나의 기술이나 도구라기보다 인간과 협업하며 인간의 능력을 신장시켜 줄 수 있는 또 다른 에이전트나 파트너다. 여러 가지 측면에서 인간지능을 능가하는 인공지능 기술이 스마트해질수록 인간지능은 멍청해질 수 있는 역설(유영만, 2025)을 극복하고, 오히려 인공지능을 활용, 인간지성의 깊은 사유기능을 심화-확장할 수 있는 방식으로 사용한다면 인류의 미래도 새로운 가능성으로 다가올 것이다. “같은 도구를 쓰더라도 누구는 생산도구로 쓰고, 누구는 사고 파트너로 쓴다. 그 차이를 만드는 것은 기능의 이해가 아니라 관계의 설계다. 관계가 형성되어야만, 관점이 생긴다. 관점이 생겨야 사고가 구조를 갖는다”(292쪽). 방대한 데이터 양을 빠르게 편집하며 생성하는 능력을 지닌 인공지능의 속도와 가능성뿐만 아니라 데이터의 질적 속성을 판단하는 사유의 밀도와 비판적 문제의식으로 재해석하는 노력이 동반될 때 인공지능과의 긴밀한 협업관계가 새롭게 재설정될 수 있을 것이다. 인공지능을 활용하여 더 빠르게 생성(generation)하는 속도나 생산성 또는 효율보다 이전과는 근본적으로 더 다르게 생성(becoming)하는 밀도나 효과적인 의미의 재구성을 강조할 때 인공지능은 인간의 사고능력을 확장시켜 주는 소중한 삶의 파트너로 새롭게 자리매김할 수 있을 것이다.
날로 스마트해지는 인공지능 기술 덕분에 더 편리하고 안락한 삶으로 가려는 관성에 빠질수록 불편함을 감수하면서 더 ‘깊이 사유하려는 근성으로 무장하지 않으면 인간은 사유기능을 점차 잃어가는 멍청한 인간으로 전락할 수 있다. 앞으로 미래 사회는 세 가지 부류의 사람으로 구분될 것이다. 첫째 AI를 외면하거나 전혀 사용하지 않는 사람(People without AI)이다. 이 사람은 AI 기술을 무시하거나 저항하면서 기존 삶에 안주하려는 안이한 사람이다. 앞으로 어떤 경쟁력도 갖기 힘든 사람이 될 수도 있다. 둘째, AI를 적극적으로 활용만 하는 사람(People with AI)이다. AI만 사용하는 이 사람은 AI가 던져주는 답에 완전히 빠져서 빠져나오지 못하는 사람이다. AI를 생산도구나 수단적 기계로 사용하면서 빠르게 답을 찾아가는 사람이다. 마지막으로 AI를 활용하면서도 AI의 능력을 능가하는 사람(People beyond AI)이다. 이 사람은 AI를 사고의 도구를 넘어 어제와 다른 사고를 하기 위해 지금까지와는 다른 질문을 던져 놓고 비판적으로 재해석하면서 반문하고 더 좋은 해답을 얻기 위해 AI를 파트너로 살아가면서 사고를 부단히 재설계하는 사람이다. “게으름이 낳은 사고의 관성을 깨뜨리는 저항, 낯선 충격, 불편한 질문과 같은 마찰이 있을 때에만 우리는 진정한 통찰과 사고의 확장을 경험할 수 있다”(283쪽). 지적 자극을 던지는 낯선 질문, 낯선 사유를 잉태하는 전대미문의 질문으로 기존 사유체계와 잦은 충돌을 통해 새로운 통찰을 낳는 공부를 멈추지 않을 때, AI는 단순한 인공지능(Artificial Intelligence)을 넘어 놀라운 상상력(AI: Amazing Imagination)과 혁신적 발상(AI: Amazing Innovation)을 촉진시키는 사고의 동반자가 될 것이다.