-
-
AI는 차별을 인간에게서 배운다 - 인간과 기술의 공존을 위해 다시 세우는 정의 ㅣ 서가명강 시리즈 22
고학수 지음 / 21세기북스 / 2022년 1월
평점 :
[서가명강 22] <AI는 차별을 인간에게서 배운다 : 인간과 기술의 공존을 위해 다시 세우는 정의> 고학수 / 21세기북스 (2022)
[My Review MMXCI / 21세기북스 42번째 리뷰] 요즘 다시 'AI 관련주식'이 들썩거리고 있단다. AI 기술 주도권을 두고서 선진기술을 가지고 있는 나라들 간의 패권 경쟁이 다시 치열해졌기 때문이란다. 가히 'AI 혁명'이라고 불릴 정도로 완전한 AI 기술력을 보유하고, 무엇보다 '선점'한 나라가 전세계를 장악할 수 있는 힘을 갖게 될 것이기 때문이다. 물론 이전의 '산업혁명' 때와 같이 후발주자들이 있을 것이고, 역사적인 흐름에 따라서 선도국가들이 후발주자에게 역전을 당하고 패권을 넘겨주는 전례가 있기에 'AI 혁명'도 그럴 수 있다고 생각한다면 오산이라고 한다. AI 혁명이 시작된다면 AI가 자율적으로 개발에 박차를 가할 것이기 때문에 '단 1초'도 쉴 틈 없이 빛의 속도로 쭉쭉 나아갈 것이라고 한다. 이렇게 선도국가가 개발속도를 늦추지 않고 앞으로 나아가게 된다면, '단 1초'가 뒤쳐진 2위 기술국가가 1위 기술국가를 영원히 앞지를 수 없게 된다고 한다. 왜냐면 '인간끼리의 경쟁'이 아니라 'AI끼리의 경쟁'이 될 것이기 때문에 그렇다는 것이다. 인간은 실수도 하고, 여유도 부리고, 삽질도 할 수 있기에, 후발주자가 잠자는 시간도 아껴서 부단한 노력을 기울이면 빠르게 뒤쫓아갈 수도 있고 역전할 가능성도 충분히 엿볼 수 있지만, 완전한 자율로 스스로 판단까지 완벽하게 해낼 AI끼리의 경쟁에서는 '단 한 발짝' 앞섰을 뿐인데, 영원히 앞서고, 순위가 뒤바뀔 가능성따위는 있을 수 없다고 한다. 그래서 AI 주도권을 선점하기 위한 각국의 경쟁은 가히 '총성 없는 전쟁'일 뿐, 뜨거운 열전을 방불케 할 정도라고 한다.
그런데 이 책은 그런 숨가쁜 경쟁에서 살짝 물러서서 '윤리적'이고, '공정함'에 대해서 한 번 되돌아보고자 한다. 바로 AI가 완벽하지 않고, 인간보다 훨씬 더 '차별적 요소'를 가지고 있어서, AI가 내린 결과에 대한 공정성 시비를 따져볼 것이 많다는 사실을 검토해볼 필요가 있다는 지적이 발생했기 때문이다. 예를 들자면, '블라인드 채용 방침'을 내세우며 '인간'이 신입사원을 채용하는 것이 아니라 'AI'에게 채용 정보를 알려주고 공정하고 편견 없는 심사 결과를 기대했는데, 막상 채용결과를 보니 남성지원자가 80%, 여성지원자는 20% 합격한 결과를 선보였단다. 이것이 과연 '공정한 심사 결과'였을까? 한편, 미국에서도 비슷한 결과가 나왔는데, AI를 이용한 블라인드 테스트를 한 결과, 우열을 가릴 수 없는 스펙인데도 '에밀리'는 합격을 했는데, '자말'은 불합격을 하는 사례가 두드러지게 나타났다고 한다. 과연 무엇이 문제였을까? 그건 바로 '이름'과 같은 정보만으로도 AI는 남녀의 '성별'을 구분할 수 있었고, 백인과 유색인종의 '인종'을 구별해낼 수 있었던 것이다. 그리고 인간이 가지고 있는 편견과 차별을 그대로 반영해서 채용 결과에서 '남성'과 '백인'이 더 유리한 결과치를 보여주었던 것이다.
물론, 이를 보강해서 문제가 되는 부분을 더 감추는 방식으로 AI가 '차별'을 할 수 없게 만들 수는 있을 것이다. 그러나 이미 AI가 인간보다 더 공정할 거라는 신뢰는 무너진 셈이다. 애초에 AI는 완전한 '무(無)'에서 인간이 만든 모든 문명과 버금가는 '이상향'을 창조해낼 수는 없다. 어쩔 수 없이 '인간이 만들어낸 정보'를 초기 입력값으로 넣어줘야만 제대로(?) 작동할 수 있을 것이기 때문이다. 그런데 애초에 인류가 쌓아올린 방대한 정보에 이미 '차별적인 요소'가 가득한데, 어떻게 그 결과값이 완벽하게 공정할 수가 있겠는가 말이다. 그래서 인간을 대신한 AI 판사가 법정에서 '공정한 판결'을 내릴 것이란 기대를 저버리게 된 것이다. 이미 수많은 판례를 검토하여 가장 '객관적인 판결'을 내릴 수 있을지언정 '인간 판사'처럼 사건 당사자가 처한 환경과 주변 인간들 간의 관계를 통해서 '개선의 의지'까지 고려해서 내리는 '인간적인 판결'을 AI 판사에게서는 전혀 기대할 수 없을 지도 모른다는 우려를 하게 된 것이다.
한편, 얼마전에는 '챗GPT'에게 소금을 대체할 수 있는 것을 물었더니, 챗GPT는 '브롬화나트륨'이 나트륨(소금)을 대신 할 수 있다고 답변을 했단다. 이를 곧이 곧대로 믿은 사람은 '덜 짜게 먹는 건강식'을 만들겠다며 소금을 음식에서 완전히 빼버리고, 대신 '브롬화나트륨'으로 대체했는데, 이게 오히려 건강에 악영향을 미쳐서 정말로 '정신과' 진료까지 받아야 할 지경에 이르고 말았다고 한다. 브롬화나트륨을 장기 복용하게 되면 '환각 증상'을 보일 수도 있는 심각한 부작용이 뒤따르는데, 챗GPT는 이런 정보까지는 미처 전달하지 못하고 '소금의 대체재'로 브롬화나트륨을 권했고, 챗GPT를 맹신했던 이용자는 오히려 건강을 악화시키는 결과에 이르게 되었단다.
도대체 이런 '오류'를 왜 저지르는 것일까? 그건 AI를 완벽하게 '인간'을 대신할 수 있다고 믿게 되는 잘못에서 기인한다. AI가 아무리 완벽해지려 해도 애초에 '입력값'이 적절치 못한 상태에서는 AI도 얼마든지 '인간'처럼 실수할 수 있고, 오히려 인간이 아니기에 그저 '방대한 정보를 추려서 간략히 제공하는 수준'에서 크게 벗어나지 못할 수도 있음을 잊지 말아야 한다. 이건 완벽하게 자율적으로 스스로 생각하는 AI가 탄생하더라도 마찬가지일 것이다. 어디까지나 '최종선택'은 인간의 몫으로 남겨두어야 할 대목이 아닐 수 없기 때문이다.
그런데도 왜 세계 각국은 AI 주도권을 선점하기 위해서 개발에 박차를 가하는 것일까? 혹시나 AI에게 '결정권'을 맡겼을 때, 벌어질 수 있는 '위험성'을 인지하지 못하고 있는 것은 아닐까? 그건 아닐 것이다. 그럼에도 '개발속도'를 늦추지 못하는 까닭은 '경제적 이득'이 그만큼 크기 때문일 것이다. AI 기술력을 선점했을 때 누릴 수 있는 '막강한 힘'도 한 몫 단단히 하고 말이다. 이는 '과학기술'을 첨단화 했을 때 우려되는 문제점과 상당히 닮았다. 더구나 AI는 인간의 노동력을 '완벽히 대체(!)'할 수 있는 신기술로 낙관하고 있는 점도 크게 우려 할 일이다. 과학이 모든 문제를 해결해줄 것으로 믿었다가 오히려 과학으로도 해결할 수 없는 문제가 있음을 깨우쳤을 때, 느꼈던 절망감이 더 컸다는 교훈을 AI로 또 한 번 느낄 필요는 없을 텐데 말이다.
지금 이 순간에도 AI는 빠르게 개발되고 있다. 그리고 AI가 인간의 지능보다 훨씬 더 똑똑해질 거라고 예측한 시기가 2030년으로 앞당겨졌으므로 이제 정말 얼마 남지 않았다. 그 '특이점'이 지난 뒤의 우리의 일상은 어떤 모습으로 바뀔 것인가? AI로 한층 더 풍요롭고 더 자유로운 세상이 펼쳐지며 더 여유롭고 더 행복한 나날을 보내는 인간들이 살고 있을까? 아니면, AI가 더 철저하게 '학습'한 차별로 인해 인간은 더욱더 극과 극으로 갈려서 정치적, 경제적, 계급적 사회속에서 갈등을 심화하여 더욱더 혼란하고 절망적인 나날을 보내게 될까? 개인적으로는 AI 개발을 적절한 수준에서 멈추고, 그저 '편리한 가전제품' 정도를 운영하는 AI로 전락해서 인간의 노동(특히, 가사일이나 위험한 노동 따위)을 대신하는 '편리한 도구'로 만들고, 최종적인 결정은 여전히 '인간'이 도맡아서 하는 세상이었으면 한다. 모든 일상의 주도권을 AI에게 맡기고서 끝내 '노예'로 전락한 인간들이 되지 말고 말이다.