자동화된 불평등 - 첨단 기술은 어떻게 가난한 사람들을 분석하고, 감시하고, 처벌하는가
버지니아 유뱅크스 지음, 김영선 옮김, 홍기빈 / 북트리거 / 2018년 12월
평점 :
장바구니담기


오래된 논의이고 어쩌면 결론에 다다른 논의가 과학과 기술은 모든이에게 중립적이고 평등한가라는 문제일 것이다. 사실 인공지능 기술이 발달하면서 많은 사람들은 편견없는 인공지능이 모든 사실(?)을 객관적이고 중립적으로 검토하여 정확한 판단을 내릴 것으로 기대하거나 그럴 수 있다고 생각한다. 사법파동이 터지거나 어떤 사건의 경중에 따른 사법부의 판단이 내려질 때마다 판사를 인공지능으로 대체해야 한다는 여론이 일어나는 것을 보면 그 기대치는 상당한 듯 하다.

 

이 책은 빈곤의 구체를 위한 자동화된 알고리즘에 따른 행정적 처리가 사실은 불평등을 심화시키고 있다고 주장한다. 이 책에 등장하는 세가지 자동화된 시스템이 있는데 인디에나 주의 '빈곤가정일시지원 푸드스탬프, 메디케이드의 적격정 판단과정'을 자동화 하는 시스템과 LA의 '노숙인 통합 등록 시스템'엘러게니 카운티의 '가정선별도구'시스템이다.

 

이러한 시스템은 가난한 사람들에게 최선의 적합한 도움을 주고자 적용한 시스템임에도 불구하고 오히려 이러한 시스템을 통하여 가난한 사람들이 국가로부터 도움을 받을 수 있는 길을 제한하거나 삭제하는 기능을 수행하고 있으며 이러한 시스템을 운영하기 위해 광범위한 개인 정보의 수집과 비공개된 알고리즘에 따른 운영으로 인하여 사실상 가난한 사람들의 인권이 침해되고 있다는 것. 이러한 상항은 근대에 잉여노동력을 통제하고 수탈하는 역할을 수행했던'구빈원'과 같은 역할을 이 시스템이 수행하고 있으며 이를 '디지털 구빈원'이라 명명한다.  

 

우리나라도 4차 기술혁명을 외치며, 마치 4차 기술혁명이 도래하면 지금과는 다른 세상이 올 것처럼 사회 각계의 지도자들이나 정부는 홍보하고 있다. 그리고 미국이 도입하고 시험했던 시스템들은 조만간 우리사회에서도 구현될 것이다. 지금까지의 역사를 보면 미국보다 더 잘 구현될 것으로 보인다. 차별과 편견으로 가득차 있는 자동화된 시스템이 이 사회에 구현된다면 그것은 또다른 헬조선의 한 축을 구성할 것이 틀림없을 것이다.

 

가난한 사람들을 위한 자동화된 시스템이 가난을 심화시키는 이유는 간단하다. 기존 사회의 인식에서 가난은 구조적이라기 보다 개인적인 문제이기 때문이다. 특히 개인의 노력을 강조하는 미국식 성공모델에서는 피할 수 없는 부분이다. 즉 개인의 나태와 게으름이 가난을 이루는 중요한 요소이지 다른 이유는 부차적이다. 따라서 가난한 개인이 국가로부터 보조를 받는 것 자체가 일종의 실패를 자인하는 것이자 사회적 부적격자임을 나타내는 증표이다. 이러다보니 시스템은 개인의 성과에 대한 가혹할 정도로 평가하는 방법을 사용할 수 밖에 없다. 이러한 시스템은 여러가지 이유로 가난에 처한 사람들이 구성하는 것이 아니고 가난을 경멸스럽게 바라보는 사람들이 작업하는 것이기 때문이다.

 

누군가 구글인지 아미존인지 회사에서 AI로 면접을 보고 신입사원을 선발했더니 선발자 전부가 남자로 구성되었다는 사례가 있다고 한다. 그 이유는 자명하다. 회사에서 성과를 이루는 직원의 특성들을 종합하여 AI에 입력한 후 면접을 진행하니 그 동안의 남성문화가 중요하게 여기는 가치들이 반영되었을 것이고 여성에게 절대적으로 불리해졌을 것이다. 그 결과는 신입사원 전체가 남성으로 구성되어 버리는 것.

 

재판에서 판사의 판결기능도 AI가 충분히 반영할 수 있다고 믿는다면 그것도 일종의 오해일 것이다. 우리나라 법원은 성범죄에 매우 관대한 경향이 있다. 과거의 판례를 AI에 반영하여 판결을 내리도록 알고리즘을 구성할터인데 그 경향성은 향후 판결에도 심각하게 반영될 것이다. 이번에 터지 텔레그램 성착취 영상 사건을 현재의 사법적 판결에 기반하여 인공지능이 판결한다면 분노한 시민들이 원하는 처벌은 결코 이루어지지 않을 것이다. 오히려 성인지 능력이 부족한 판사에게 사건이 배당되자 반발하던 시민들의 청원에 의해 재판부가 변경되는 일련의 과정은 사람들에게는 인공지능과 다른 판단이 가능함을 보여주고 있으며, 사람이 판단하는 과정의 일정영역은 인공지능으로 대체할 수 없다는 것을 증명하고 있다고 본다.

 

인공지능은 판만만이 아닌 예측까지도 수행할 것이다. 그러나 예측은 과거를 기반으로 하기에 과거의 편견이 자료가 되어 이루어지는 예측도 그 편견에서 자유롭지 못할 것이다. 흑인들을 잠재적 가해자로 여기 듯이 인공지능 역시 그럴 확율이 높다.

 

기술은 모든 사람에게 평등한가? 이 문제는 어떤 사회의 기술인가에 달려있다고 본다. 그 사회가 평등하고 차별이 없으며 사람들간의 유대가 긴밀하고 차이를 포용하는 능력이 많을 수록 그 사회에 적용되는기술들은 평등해 질 것이다. 그렇지 않은 경우 기술은 그 사회를 반영하여 가난한 자에게 소수자에게 더 엄혹하고 잔인해질 것이다. 그래서 위정자들이 기술발전만 이루어지면 모든 것이 다 괜찮아지고 좋아질 것이라며 선동하는 것을 보면 두려워진다. 사회의 평등을 되돌아 보지 않으며 그저 자본의 이익을 위해 과장하는 것은 아닌지... 기술도 역시 시민이 통제하지 않으면 언제 시민을 묶을 쇠사슬로 변할지 모른다는 것. 그럼에도 정보기술에 대한 찬양은 계속되고  빅데이터 산업발전이란 미영하에 우리의 개인 신상은 끊이없이 위협받고 있는 것이 현실인 듯하다.


댓글(0) 먼댓글(0) 좋아요(6)
좋아요
북마크하기찜하기 thankstoThanksTo