인공지능의 윤리학 - 제38회 한국과학기술도서상 출판대상 포스트휴먼 시대의 인공지능 철학 2
이중원 외 지음 / 한울(한울아카데미) / 2019년 12월
평점 :
장바구니담기


새로운 과학기술은 새로운 문제 상황을 만들어왔다. 장거리 항해 기술을 보자. 대항해 무역 시대를 열었지만 곧이어 여러 문제 상황이 발생하였다. 항해 자체가 불확실하였기에 손실을 대비할 수 있는 보험제도’, 손실이 나도 일정한 부분만 책임지는 유한 회사 제도라는 방법을 만들어냈다.

 

AI 과학기술 발전이 우리의 삶을 획기적으로 변화시키리라 예상된다. 반면 우리의 삶에 각종 윤리적·사회적·법률적 문제 상황을 불러올 것이라는 데는 이견이 없다. AI가 인간 활동을 대체 하려하기 때문에 생기는 문제들이다.

 

자율주행자동차는 안전의 증진, 경제적 이익, 이동성의 확대라는 장점이 부각되고 있지만 교통사고의 책임 소재는 불분명한 상황이다. 문제의 핵심은 공공의 안전이다. 트롤리 딜레마와 같은 이러지도 저러지도 못하는 상황과 마주했을 때 누가 책임질 것인가는 풀어가야 할 숙제다. 섹스 로봇에 대한 사람들 간의 인식 차이도 크다. 사용 범위에 대한 사회적 합의가 불투명하다. 자율무기시스템인 군사 로봇일 경우 과연 로봇이 사람을 해치는 것이 허용될 수 있는지가 관건이다. 전쟁에서 실제로 사용하는 것이 윤리적인가도 문제 상황이다. 결국 누가, 어떤 방식으로, 얼마만큼 책임을 질 것인지 고민해야 한다.

 

현재까지 우리에게 익숙한 사고방식은 AI를 포함한 모든 기계를 인간을 위한 도구로 생각했다. 그런데 AI가 기계라는 속성을 넘어 스스로 판단하고 결정하는 단계에 이르렀다는 점이다. 인간의 고유 속성이라고 생각했던 자율성과 자유의지를 넘보려 하는데 심각성이 대두되고 있다. 데카르트와 칸트 시대만 하더라도 인간을 제외한 동물까지도 아무런 도덕적 권리나 지위를 부여하지 않았다. 영혼이 결여되어 있다고 생각했기 때문이다. 행위자의 주체는 오직 인간이었다. 물론 중세 시대에는 신 중심 세계관으로 행위자의 주체 또한 인간이 아닌 이었다.

 

오늘날은 어떤가? 동물도 고통을 느끼는 존재라고 외쳤던 공리주의자 벤담의 주장은 오래된 유물이 되었다. 반려동물에게도 인간과 버금가는 지위를 부여해야 한다고 법을 개정한 국가도 있다. 자연 세계인 환경에도 특별한 지위를 부여할 것을 요구한다. 생태윤리론자, 동물보호주의자들의 관점에서는 모두가 생명이 있는 보호 받아야 할 존재들이다. 그렇기 때문에 인간 중심의 관점을 버려야 한다고 꾸준히 주장하고 있다.

 

그렇다면 지금까지 기계에 불과했고 무생물에 불과했던, 단지 인간적 감정을 투사하여 의인화 되었던 AI에게까지 도적적 지위를 부과해야 되는가?

 

AI 에게도 인격권을 부여할 수 있을까?

 

AI에게 인격적 지위를 부여할 수 있는 근거로 법인(법적 인격)’ 제도를 예로 든다. 법인 개념은 13C 교황 인노첸시오 4세가 수도원이 재산을 소유할 수 있도록 수도원에게 가상적 인격권을 부여한 것에서 시작한다. 수도원장이 바뀌거나 후원자, 지역 권력자들이 교체되더라도 수도원의 기반을 안정적으로 확보할 수 있기 위한 조치였다. 법인은 일종의 책임과 의무의 주체로 인식된다. 그렇다면 사람이 아닌 AI에게도 법적 인격을 부여할 수 있지 않을까? 라는 의견들이 나오고 있다.

 

만약 AI도덕적 지위를 지닌 행위자라면 책임을 물을 수 있을까?

 

자율주행자동차가 운행 중 교통사고를 내면 AI에게 책임을 물을 수 있을까?

자율형 군사 킬러 로봇이 전쟁 중에 민간인을 오인해 죽였다면?

 

책임을 부과하기 위해서는 몇 가지 선결 조건이 있다. 인과적으로 통제할 수 있느냐?, 결과를 예견할 수 있느냐?, 행동을 자유롭게 선택할 수 있느냐? . 책임을 부과하는 문제는 복잡하다. AI도 자기 주도적인 심화학습을 통해 어느 정도 자율성을 지니고 있다고 보는 추세다. 일례로 알파고는 스스로 판단하고 결정한다. 패턴 인식을 통해 관계적 자율성도 지니고 있다. 책임 소재에 관한 저자들의 결론은 이렇다. 인공지능 시스템에 논란이 많은 책임 개념 대신 설명을 해야 되는 책무 개념을 적용해 볼 것을 권하고 있다. 다양한 행위자들이 연결된 책임 대신 행위 그 자체에 무게를 두고 해결해 보자는 얘기다. 상용화를 앞당겨 보자는 취지에서 나온 생각이다.

 

인공지능의 윤리학의 저자들은 AI 로봇이 이제는 더 이상 사물이나 도구가 아닌 도덕적 고려 대상이 되고 있음을 독자들에게 환기시켜주고 있다. 인공지능이 인간과 공존하기 위한 방법들을 제시하고 있다. AI를 도덕적으로 판단하고 행동할 수 있는 존재 즉 도덕적 행위자로 볼 수 있어야 한다는 쪽에 무게 추를 옮기고 있다. 거부감이 느껴지는 것은 당연하다. 도덕은 인간 상호관계에서 일어나는 기본적인 규범이었다. 앞으로 AI와도 관계를 가져야 할 것은 불가피해 보인다.


댓글(0) 먼댓글(0) 좋아요(0)
좋아요
북마크하기찜하기 thankstoThanksTo