AI는 차별을 인간에게서 배운다 - 인간과 기술의 공존을 위해 다시 세우는 정의 서가명강 시리즈 22
고학수 지음 / 21세기북스 / 2022년 1월
평점 :
장바구니담기






서울대학교 법학전문대학원 교수로 재직 중인 저자는 미국 컬럼비아 대학교 로스쿨과 경제학과에서 공부하여 학위를 받았습니다. 공부를 마친 후 미국과 국내의 로펌에서 근무했고, 연세대학교, 컬럼비아대학교, 싱가포르 국립대학교, 함부르크대학교에서 강의를 했습니다. 새로운 기술이 사회와 경제에 미치는 영향은 무엇인지, 그래서 제도는 어떻게 대응하고 변모해야 하는가에 관해 <AI는 차별을 인간에게서 배운다>에 실었습니다. 그럼, 내용을 보겠습니다.



우리는 이미 인공지능 세계에 살고 있습니다. 인공지능 작동원리를 알려주고, 인터넷 플랫폼의 기본인 '프로파일링'을 통해 일반인들에게 맞춤광고가 오는 원리를 설명합니다. 인공지능은 이미 많은 영역에서 상용화되어 활용되고 있습니다. 인공지능을 활용한 의사결정은 우리의 일상생활에 상당한 도움을 주고 있기도 합니다. 하지만 이로 인한 여러 형태의 불안감이 나타나기도 하고, 새로운 의문이 제기되고 있기도 합니다. 앞으로 인공지능이 보다 널리 활용될 수 있으려면 무엇보다 인공지능기술 자체에 대한 신뢰도가 높아져야 할 것입니다.


빅데이터 인공지능 시대를 맞아 공정성 문제와 차별 개념이 새롭게 부각되었습니다. 알고리즘에 의한 차별과 공정성에 관한 논란이 나타난 것입니다. 그런데 사람에 의한 차별과 인공지능에 의한 차별은 서로 다른 메커니즘을 통해 발생합니다. 인공지능을 활용한 의사결정에 차별이나 편향이 나타날 수 있다면, 그 원인이 무엇인지 생각해 볼 필요가 있습니다. 데이터 수집에서 시작해 인공지능 모델이 만들어지기까지의 전체 흐름을 순서도로 요약해 보면 각각의 단계에서 모두 차별이나 편향으로 인한 문제가 생겨날 가능성이 있습니다. 오늘날의 인공지능은 데이터의 존재가 관건입니다. 사회적 환경을 배경으로 하는 유형의 작업은 실제 세상의 데이터가 더욱 중요합니다. 그런데 사회에는 편견과 차별, 불공정이 어느 정도는 있기 마련입니다. 이에 대해 통계학적 개념을 활용해 정량적 측정이 가능한 '공정성 지표'를 마련해, 어떤 개별 유형의 맥락이나 상황에서 어떤 공정성 지표를 적용하는 것이 적절할 것인지에 대해 체계화하는 것이 무엇보다 필요합니다.


인공지능 윤리 규범에 관한 논의가 이루어지는 배경 이유 중 하나는, 이런 논의를 통해 인공지능 기술이 필요에 따라 적절한 '책임'을 지도록 하는 것입니다. 인공지능 윤리의 백락에서 책임의 의미로 주요 이용되는 단어는 우리말로 표현할 때 '책임', '책무', '설명 책임'이라 해석할 수 있습니다. 즉 설명을 통해 적극적인 소통을 하고 이해를 구하는 측면이 강조되는 것입니다. 결국 우리가 인공지능을 얼마나 믿을 수 있느냐의 신뢰 문제로 귀결됩니다. 비행기를 탈 때 비행기가 사고나 나지 않을 것이라고 믿으니까 타는 것입니다. 마찬가지로 인공지능이 사회적 규범을 적절히 반영하여 '좋은' 판단을 할 것이라는 신뢰가 형성된 상황이라면, 투명성이나 설명 가능성에 대한 요구가 크게 줄어들 것입니다.




인공지능을 바라보는 시각은 매우 다양합니다. 인공지능이 가져올 장밋빛 유토피아를 그리는 시각도 있는 한편, 반대로 커다란 우려를 보이는 시각도 있습니다. 그런데 어느 쪽이건 극단적인 시각은 적지 않은 경우에 기술의 현주소에 대한 이해 부족을 반영하는 것일 가능성이 높습니다. <AI는 차별을 인간에게서 배운다>는 이런 간극을 채우기 위한 시도의 일환입니다. 개인의 판단이건 국가정책적인 판단이건, 출발점은 인공지능 기술이 작동하는 메커니즘에 대한 이해 그리고 그러한 메커니즘이 일상과 사회에 어떤 형태로 영향을 미치게 되는지에 관해 객관적인 시각에서 바라보는 것입니다. 이 책으로 인공지능을 품은 밝은 미래를 만들어가길 바랍니다.




네이버카페 이벤트에 당첨되어 책을 제공받고 쓴 후기입니다.







댓글(0) 먼댓글(0) 좋아요(1)
좋아요
공유하기 북마크하기찜하기 thankstoThanksTo