-
-
AI는 차별을 인간에게서 배운다 - 인간과 기술의 공존을 위해 다시 세우는 정의 ㅣ 서가명강 시리즈 22
고학수 지음 / 21세기북스 / 2022년 1월
평점 :
인공지능(AI)은 이제 우리 삶의 깊숙한 곳까지 자리해 우리가 알지 못하는 다양한 행동양식을 분석해 새로운 가치를 창출하는 모든 비즈니스 산업에 적용되고 있습니다.
구글이나 네이버 등의 검색자의 위치와 성향을 파악해 맞춤형 결과를 보여주거나, 스팸메일을 걸러내고, 글의 문맥을 파악해 적절한 단어와 표현을 추천하는 자동완성 기능에도 '인공지능 기술'이 내재되어 있지요.
특히 최근의 온라인 쇼핑 시 고객과의 접촉을 담당하는 '챗봇'이나 고객의 취향을 분석하여 제품을 추천하는 '개인화 기술' 등에는 여지없이 인공지능이 활용되고 있습니다. 우리가 좋아하는 '넥플릭스나 유튜브'의 추천 영상을 위한 인공지능 알고리즘이 좋은 예 입니다.
이렇듯 고객의 궁금점과 불편함을 빠르게 해소하고, 자신도 인지하지 못하는 취향을 분석해서 꼭 맞는 제품을 서비스 받는 기쁨은 인공지능 기술의 발전과 더불어 느낄 수 있는 긍정적인 요소가 아닐까 합니다.
그러나 한편으로는 인공지능의 학습과정에서 편협하고 편향된 데이터로 인해 궁극적으로 '잘못된 판단' 혹은 '편향과 편견'이 담긴 판단을 할 수 있다는 여러 연구단체의 지적은 유토피아만을 상정하는 인공지능 기술에 불안감을 드리우는 요소이기도 합니다.

오늘 소개해 드리는 <AI는 차별을 인간에게서 배운다>의 저자인 서울대학교 법학전문대학교의 '고학수 교수'는 이렇게 이야기 합니다.
"AI 기술은 우리 삶을 편리하게 해주는 한편 기존에 없던 수많은 문제를 드러내고 있다. AI가 인간의 프라이버시를 침범하거나 차별과 불공정으로 인간을 대하면 편향된 시각을 보이기도 한다. 그러나 AI도 인간이 만드는 것이기에 그 모든 것이 결국 인간에서 비롯되며, 중요한 것은 새로운 기준과 정책을 만드는 것이다."
책에서는 우선 인공지능의 작동방식을 개괄적으로 다룸으로써 인공지능의 편향성과 부작용 그리고 이를 극복하기 위한 논의를 위해 기본적인 인공지능의 원리를 설명합니다. 레이블링, 지도, 비지도, 강화 학습 등의 작동원리를 통해 '자연어 및 이미지 인식'을 위한 기초지식과 인터넷 플랫폼에서 데이터를 수집 및 분석하는 '프로파일링 기법'을 통해 '맞춤형 광고나 개인화 서비스'가 이뤄지는 원리를 이해할 수 있습니다.
노골적으로 성차별을 했다는 논란이 불거진 '아마존의 면접채용 인공지능 프로그램'은 인공지능의 차별 편향성 학습을 보여주는 대표적인 사례라 하겠습니다. 기존 아마존에 여성 지원자가 별로 없고, 그 중 성과를 평가받아 임원으로 승진한 여성은 더 더욱 드물기에 이러한 축적 데이터를 학습한 인공지능에게는 여성보다 남성이 더욱 아마존에 적합한 성(姓)이라 판단 및 추천했을 겁니다. 과거 데이터에서 성차별을 학습한 셈입니다.
이와 유사한 사례는 최근 벌어진 이른바 '애플카드 사건'을 들 수 있지요. 애플과 골드만삭스가 함께 내놓은 신용카드에 소득자산 등 여건이 똑같아도 인공지능은 남성에게 훨씬 큰 사용한도를 부여했습니다. 물론 앞서 아마존 사례와 비슷하게 경제활동 경험 등에서 차이가 나는 남녀의 성비를 학습한 인공지능의 편향성을 적나라하게 보여준 사례라 하겠습니다.
이러한 모든 인공지능의 편향과 차별 학습 뒤에는 부정확한 데이터나 아예 데이터 부족의 문제가 우선 거론됩니다. 단순히 데이터 부족에 의해서도 차별 학습이 발생할 수 있음을 기억할 필요가 있습니다.
그러나 더욱 심각한 것은 편향과 차별이 포함된 기존 데이터를 인공지능이 학습하는 것일겁니다. 아마존이 폐기한 인공지능 면접 채용 프로그램이 그 예입니다. 이를 해결하기 위해 '입력규제'라 하여 차별 소지가 있을 만한 데이터를 아예 인공지능에 피드(feed)하지 않는 것도 고려할 수 있겠지만(예를 들어, 블라인드 면접), 근본적인 문제해결법은 아니라는 입장입니다.
오히려 인공지능은 학습된 새로운 편형성을 통해 '입력규제'를 무력화하는 '대체변수'를 찾아 시도 할 것이라는 이야기입니다. 이렇게 된다면 사람이 모르는 사이에 오히려 판단에 있어 왜곡과 쏠림현상이 심화될 수 있다는 지적입니다.
결론은 오랜기간 인간의 행동양식과 판단/결정이 담겨진 데이터를 학습하는 인공지능은 당연히 인간의 의식적, 무의식적 편견을 그대로 학습하여 상황에 따라 오류나 편견이 담긴 판단을 할 수 있다는 이야기 입니다.
결국 인공지능의 편향성, 차별의 문제는 대부분 인간의 그것과 깊은 관계를 가집니다. 따라서 인공지능의 판단결과를 보고, 편향과 편견 혹은 차별이 담겨져 있다면, 이런 결과가 도출되지 않도록 인공지능의 알고리즘 혹은 모델을 지속적으로 수정해 나가면서, 인간과 기술의 공존을 통한 정의가 지속되도록 관심을 가지고 끝까지 보듬어 나가는 일일겁니다.
인공지능은 바로 우리 사회를 비추는 거울임을 명심한다면, 우리 사회가 장차 맞이하게 될 '인공지능 시대의 명과 암'을 좀 더 냉철하게 파악하고, 좀 더 나은 방향 즉, 기술 유토피아의 시대로 이끌 수 있을 것이라 믿습니다.
관심있는 분들의 일독을 권합니다.