무자비한 알고리즘 - 왜 인공지능에도 윤리가 필요할까
카타리나 츠바이크 지음, 유영미 옮김 / 니케북스 / 2021년 1월
평점 :
장바구니담기


무자비한 알고리즘

카타리나 츠바이크 지음

네이버 밴드나 사이트의 개인비밀번호가 여러 번 틀리면 찌그러진 문자와 숫자를 입력하거나 신호등이나 자전거 포함된 타일을 고르라는 캡차사진분류이미지를 선택해야 한다. 가끔

 읽기 힘든 문자나 해상도가 떨어지는 이미지선택으로 다른 이미지나 문자로 변경되어 재작업해야 할 때 짜증나거나 번거로웠는데 알고 보니 구글, 구글 스트리트뷰의 기계머닝학습용 데이터였음을 알게 되었다. 구글맵이나 알고리즘기반의 자동화앱들의 성능을 개선하는데 인터넷을 사용하는 유저들이 무의식적으로 참여하고 있었다.

인터넷의 자동봇이나 자율주행차, 로봇등의 인공지능의 기술이 날로 개선될 뿐 아니라 그 용도가 매우 광범위하며 재판관의 불공정한 판결이나 사람들의 입시부정이나 의사들의 의료사고를 볼 때 로봇이나 인공지능이 더 공정하고 객관적으로 잘 판단하지 않을까? 생각했는데 대부분의 머신 러닝 알고리즘은 휴리스틱이며 해답을 찾으려고 하지만 최적이 아니며 기계가 확인한 가설에 대해 인과성 검증은 없다.

디지털상업의 영역에서 알고리즘 기반 의사결정 시스템으로 올린 성과를 다른 영역에서 인간행동을 예측하는 일인 미국 법정에서 사용되는 인공지능 시스템의 재범률 예측 프로그램, 구직자나 입시선별, 입금협상이나 교육, 공공인프라 영역에서 알고리즘이 결정을 내리거나 결정에 영향을 줄 때는 부당한 차별이 있는지 점검해야 됨을 지적한다.

기계는 데이터 안에서 차별을 발견하고 학습을 통해 강화되거나 특정 그룹의 데이터 부족으로 왜곡에 의한 차별이 발생할 수 있다.

데이터가 배제된 집단의 특성은 머닝러신이 학습할 수 없는 문제들도 있다.

인간에 대한 결정엔 모든 인간에 대한 절대적 공정과 공평한 기준이 없으며 우선순위에 대한 사회적 합의가 필요하다.

인공지능을 사용할 때는 윤리적으로 문제가 없는 상황이거나 윤리적으로 문제를 결정할 수 있는 경우에만 사용하는 것이 옳다.

이 책은 재미있는 그림과 도표를 통해 이해를 돕고 어려울 수 있는 내용들을 비교적 쉽게 설명하려고 노력하였다. 인공지능의 영역이 넓어질수록 그 위험성에 대해 분석한 책들도 많지만 우리가 염려해야 하는 가치판단이 들어가는 분야와 그렇지 않은 분야들을 알려주면서 우리가 어떻게 감시할 수 있는지 피드백을 줄 수 있는 방법론과 윤리의 문제를 정확하게 집어내고 있어 유익하다


댓글(0) 먼댓글(0) 좋아요(2)
좋아요
북마크하기찜하기 thankstoThanksTo