신뢰할 수 있는 인공지능 - 인공지능을 사회에서 받아들이기 위한 조건
한상기 지음 / 클라우드나인 / 2021년 9월
평점 :
장바구니담기


신뢰할 수 있는 인공지능

 

이 책은?

 

이 책 신뢰할 수 있는 인공지능은 <인공지능을 사회에서 받아들이기 위한 조건>이란 부제가 붙어 있다.

 

저자는 한상기, <서울대학교 컴퓨터공학과를 졸업했고 카이스트와 세종대학교 교수를 거쳐 2011년부터 테크프론티어 대표를 맡고 있다현재 기업을 위한 기술 전략컨설팅과 정부 정책 자문과 연구를 하고 있으며 기술과 사회에 관한 강연을 하고 있다인공지능 윤리를 위한 기술 프레임워크신뢰 가능한 인공지능 등에 관한 연구 과제를 수행했다.>

 

이 책의 내용은?

 

왜 신뢰성이 문제가 되는가?

 

인공지능 기술이 일상생활기업활동사회 시스템에 활용되면서 과거에는 없던 일들이 발생하기 시작했다인공지능의 신뢰성 문제가 대두되기 시작한 것이다.

 

예를 들면 얼굴 인식이 인종과 성별의 차이로 문제가 생긴다거나 긍융복지채용에서 프로그램에 의한 판정이 자신에게 부당하게 처리됐다고 여겨도 그 과정을 제대로 설명듣지 못한다는 한계를 노출하기 시작한 것이다.

 

이러한 문제점을 저자는 공정성윤리성투명성과 설명 가능성견고성과 안정성으로 규정하고 문제점이 무엇인지그런 것들을 극복하기 위한 노력이 어떻게 이루어지고 있는가를 살펴보고 있다.

 

인공지능의 공정성

 

공정성 문제는 기업이 가장 예민하게 대응하는 이슈다알고리듬이나 데이터 편향으로 유발된 오류가 기업에 대한 이미지와 평판의 훼손 소송과 같은 법적 위기만이 아니라 정부에 의해 제재를 받을 수 있는 위험이 크기 때문이다. (107)

 

언어 처리에서의 불공정성 :

 

2016년 3월 23일 마이크로소프트는 트위터에 테이Tay’19라는 인공지능 챗봇을 소개했다그런데 테이가 사람들과 트윗을 주고받는 과정에서 갑자기 인종차별적이고 성차별적이며 폭력적인 트윗을 내놓았다마이크로소프트는 테이를 소개한 지 16시간 만에 서비스 중단을 선언했다마이크로소프트의 인공지능 챗봇 테이가 어떠한 배경지식이나 판단 기준을 갖지 않은 상태로 시작했다가 바로 서비스를 중단한 것은 준비되지 않은 인공지능 알고리듬이나 서비스가 얼마나 쉽게 편견과 차별을 만들어낼 수 있는가를 잘 보여준 사례다마이크로소프트가 테이의 부적절한 행위에 대해 어떤 처리나 방어를 하도록 디자인하지 않았기 때문이다. (75~76) 

우리나라에서도 역시 같은 문제가 발생했다챗봇 이루다의 경우성희롱성소수자에 대한 차별혐오 발언등이 나오면서 인공지능의 윤리성 문제와 함께 혐오 가능성에 대한 사회적 이슈가 되었다. (76)

 

데이터의 문제 :

 

인공지능 시스템의 대부분은 입력된 데이터에 의지하고 있는데 그 데이터가 애초부터 오류에 기인할 경우 문제가 되는 것이다데이터가 부정확하거나편향적이며 불법적인 요소로 만들어졌거나 영향을 받았을 경우문제가 된다. (84)

 

데이터 수집이나 입력시에 자신도 모르는 사이에 특정 그룹의 가치관이나 사회적 판단을 인공지능 모델이나 알고리듬에 심을 수 있는 것이다.

 

인공지능 모델의 편향성은 크게 알고리듬 자체의 편견데이터세트에서 온 부정적 유산데이터 부족에 의한 과소평가에서 비롯된다. (94)

 

이 공정성과 관련하여 감시사회가 문제가 된다. :

 

얼굴 인식 시스템이나 딥러닝빅데이터 등의 기술로 새로운 감시사회를 만드는 경향이 있다고 지적되고 있다. (89)

 

대표적인 나라가 중국인데중국에서 얼굴 인식 시스템의 도입과 그것의 정치적 이용이 문제가 되고 있는 것이다.

직원감시대중교통에서의 수배 인물 확인거리에서의 교통질서 위반자 판별이 문제가 되고 더 나아가 인종차별적 방식으로 사용한다는 사례로 등장하고 있다.

 

영화에서나 볼 수 있을 정도의 일들이 지금 현재 벌어지고 있는 것이다.

 

참고로화웨이는 위구르 사람을 인식해서 경찰에 알리는 얼굴인식 소프트웨어를 테스트했다는 것이 내부 문서로 알려졌다. (89)

 

인공지능의 윤리성에 대하여

 

철학에서 윤리에 대한 접근 방식은 대체로 다음과 같은 세 가지 방식이 있다.

 

칸트의 의무론적 접근,

벤담과 흄의 공리주의적 접근,

아리스토텔레스의 덕 윤리적 접근. 

이중 덕윤리학이라고 부르는 아리스토텔레스의 윤리관은 규칙이나 행위의 귀결을 강조하는 것이 아니라얼마나 좋은 인간이 돼야 하는가에 초점을 맞추면서 지속적 실천이나 행위자의 품성을 중시한다그래서 인공지능 시스템에서 채택하기 어려운 점이 많다. 

이런 이유로 대부분의 인공지능 윤리모델은 의무론이나 공리주의에 기반을 두고 하나의 모델로 접근하거나 이 둘을 결합한다. (119)

 

인공지능의 윤리성에 관한 문제는윤리학에서 고전적인 문제트롤리 딜레마를 비롯하여 만흔 논의가 이루어지고 있는데특히 자율주행차의 도입에 있어 초미의 관심사가 되고 있다.

과연 자율주행차가 인간이 가지고 있는만큼의 윤리성에 입각하여 판단할 수 있을지그래서 위에 언급된 트롤리 딜레마와 같은 상황에 봉착하는 경우어떻게 할지?

 

인공지능의 투명성애 대하여

 

인공지능이 투명하지 않은 이유는 다음에서 비롯된다. (165)

 

설명할 수 없는 알고리듬

학습 데이터 세트의 가시성 부족

데이터 선택 방법의 가시성 부족

학습 데이터세트 안에 존재하는 편향에 대해 제대로 파악하지 못하는 경우

모델 버전의 가시성 부족.

 

견고성과 안정성

 

저자는 이 장을 영화 <2001:스페이스 오딧세이>의 한 장면을 인용하면서 시작한다.

 

데이브와 할의 대화다.

데이브는 우주선에 탑승하여 미션을 수행중인 인간 우주인이고할은 인공지능 시스템이다.

 

데이브 포드 베이 문을 열어!

할 미안합니다데이브유감이지만 그렇게 할 수 없습니다. (197)

 

인공지능이 독자적인 판단하에 인간의 말을 거역하고 자기 마음대로 행동하기 시작하는 순간이다.

 

인공지능의 견고성은 외부의 악의적인 공격이나 위험에 얼마나 인공지능기술과 시스템이 제대로 대처할 수 있는가의 문제다위의 사례에서 보는 바와 같이 인공지능 할이 인간의 명령에 불복하는 경우아주 커다란 문제가 발생한다.

 

또한 이 문제는 현재 시행 가능성에 가장 근접한 자율주행차 운행에도 적용할 수 있다.

이 경우 인공지능의 윤리성과도 맞물려심각한 문제를 초래하고 있는 것이다.

 

다시이 책은?

 

공정성윤리성투명성과 설명 가능성견고성과 안정성

 

이런 문제점들이 산재해 있는 인공지능과연 어떻게 대처해야 하는지?

 

저자는 그런 문제점에 대하여 대처하고 있는 실제 상황을 외국과 국내 기업들의 사례를 제시하면서 구체적으로 그 문제점과 해결을 위한 노력을 항목별로 보여주고 있다.

 

이런 당부와 함께.

인공지능과 사회문제를 연구하는 다양한 학자들이 다루는 주제나 문제점 해결방안이 기술적으로 얼마나 어려운 과제인지문제해결을 위해 어떤 기술이 필요한지를 이해할 수 있기를 바란다. (11)

 

과문한 탓이겠지만인공지능과 관련하여 그 신뢰성을 다룬 책은 그간 접해보지 못했다.

이 책에서 인공지능의 신뢰성을 본격적으로 다루고 있는 것을 알게 된 것이다. 

언뜻 생각하면 인공지능이 실제 사회에서 많은 기여를 하고 있는 것처럼 보이나 실상 그 안에 들어가 보면여러 문제점이 있다는 것을 이 책을 통해서 비로소 알게 된다.

 

인공지능 예측에 대한 신뢰 문제는 학습 데이터의 부족이나 왜곡불완전한 기술 등 다양한 원인이 있다. (19)

 

지금 여러 나라에서그리고 여러 기업에서 인공지능을 위한 다양한 가이드라인을 제정하고 있지만가이드라인은 그냥 가이드라인일뿐이다이를 구체적으로 구현해 준수하고 그 내용과 준수 여부를 확인하기 위한 노력과 기술이 필요하다. (61)

 

댓글(0) 먼댓글(0) 좋아요(2)
좋아요
북마크하기찜하기 thankstoThanksTo