[ 유럽의회의 로봇 관련 결의안 주요 내용 ]
구분주요 : 내용
1. 로봇 등록제 : 첨단 로봇의 경우 로봇 분류 체계에 따라 등록제 도입
2. 저작권 및 프라이버시 : 로봇 창작물의 저작권 보호 기준을 마련하고 정책 입안 시점부터 프라이버시 및 데이터 보호 방안을 적용
3. 법적 책임 :
- 향후 10~15년 간 로봇 및 인공지능 발전으로 초래되는 법적이슈를 다루기 위한 입법안을 마련할 것을 EU 집행위원회에요청,
- 로봇 때문에 발생한 피해라는 이유만으로 보상 가능한 손해의 종류나 정도를 제한하거나 보상의 종류를 제한할 수 없음.
- 로봇이 초래한 피해에 대해선 엄격한 책임 원칙(strict liability)을 적용하고, 로봇의 행위와 손해 간 일반적인 인과관계만 입증하면 보상 요건 충족하도록 설정.
- 로봇이 초래한 손해의 보상, 로봇이 자율적으로 결정한 사건등을 다루기 위해 로봇에게 ‘전자 인간‘의 지위를 부여.
4. 로봇세 : 자율 로봇 제조사가 책임 보험에 가입하되 보험 미적용 사고의보상을 위해 기금을 조성. 로봇이 행한 서비스의 대가로 로봇에게 지급되는 금전적 대가를 이 기금에 이전하는 안이 제시됨 (일종의 ‘로봇세‘로 의원총회 표결 과정에서 부결됨).
5. 윤리원칙 : 로봇 디자인, 개발, 연구, 이용시 적용되는 윤리강령 원칙들을 담은 로봇 헌장을 향후 입법시 고려할 것
6. 노동시장 및기본소득 : 로봇공학 및 인공지능 발전이 노동시장에 미칠 영향을 감안해세제, 사회안전망, 기본소득 등에 대한 고려 필요 (*기본소득 내용은 의원총회 표결 과정에서 부결됨)
[ 로봇 윤리에 선행하는 원칙들 ]
by 유럽로봇연구연합 EURON 2006년. (03년부터 3년간 연구자 50여 명 참여 / 로봇이 어떠해야 한다라는 원칙이 아닌 로봇을 만드는 사람을 대상으로 가이드라인을 제공함)
1. 인간의 존엄과 인간의 권리
2. 평등, 정의 형평
3. 편익과 손해
4. 문화적 다양성을 위한 존중
5. 차별과 낙인화의 금지
6. 자율성과 개인의 책무성
7 주지된 동의
8. 프라이버시
9. 기밀성
10. 연대와 협동
11. 사회적 책무
12. 이익의 공유
13. 지구 상의 생물에 대한 책무
"창조자는 그들이 만든 산물 Progeny의 행위에 대한 책임이 있다. 만일, 창조작 도덕적 지위를 갖춘 창조물을 만든다면, 창조자와 창조물은 창조물의 행동에 대해 공동 책임을 져야 한다." - 닉 보스트롬-
[산업자원부 로봇 윤리헌장(초안, 2007) ]
1장(목표) 로봇 윤리헌장의 목표는 인간과 로봇의 공존공영을 위해 인간중심의 윤리규범을 확인하는 데 있다.
2장(인간, 로봇의 공동원칙) 인간과 로봇은 상호 간 생명의 존엄성과 정보, 공학적 윤리를 지켜야 한다.
3장(인간 윤리) 인간은 로봇을 제조하고 사용할 때 항상 선한 방법으로 판단하고 결정해야 한다.
4장(로봇 윤리) 로봇은 인간의 명령에 순종하는 친구·도우미 동반자로서 인간을 다치게 해서는 안 된다.
5장(제조자 윤리) 로봇 제조자는 인간의 존엄성을 지키는 로봇을 제조하고 로봇 재활용, 정보보호 의무를 진다.
6장(사용자 윤리) 로봇 사용자는 로봇을 인간의 친구로 존중해야 하며 불법개조나 로봇남용을 금한다.
7장(실행의 약속) 정부와 지지체는 헌장의 정신을 구현하기 위해 유효한 조치를 시행해야 한다.
- 정부 관계자, 로봇 공학 교수, 심리학 전문가, 의사 등 12명 참여. 한국 로봇 윤리헌장은 아직 미생으로 남아 있음.
[ EPSRC의 로봇 윤리 ]
공학과 물리과학 연구위원회, 2010년, 영국 ;다른 원칙과 다른 지점은 프라이버시 언급.
1. 로봇은 단 국가안보를 위한 경우는 제외하고, 무기로서 설계되어서는 안 된다.
2. 로봇은 사생활 보호 뿐 아니라 ‘프라이버시‘를 포함한 현존하는 법규범에 부합되도록 설계되고 운용되어야 한다.
3. 로봇은 안전과 보안 보장에 적합하도록 설계되어야 한다.
4. 로봇은 사람에게 이에 대한 착각이나 환상을 불러일으키도록 설계되고 사용되어서는안 된다.
5. 모든 로봇에 대해 법적 책임을 지는 사람이 명확하게 명시되어야 한다.
---------------------------------------
[ 일본의 AI R&D 가이드라인 ] 2016년. G7 정보통신장관 회의에서 제안됨.
1. 투명성 : AI 네트워크 시스템을 설명하고 검증할 수 있는 능력 확보
2. 이용자 지원 : AI 네트워크 시스템이 이용자를 지원하고 이용자에게 선택의 기회를 적절히 제공
3. 통제 : 인간에 의한 AI 네트워크 시스템의 통제 가능성 보장
4. 보안 : AI 네트워크 시스템의 견고성 및 신뢰성 확보
5. 안전 : AI 네트워크 시스템이 사용자 및 제3자의 생명 또는 신체에 위험을 초래하지 않도록 고려,
6. 프라이버시 : AI 네트워크 시스템이 사용자 및 제3자의 개인 정보를 침해하지 않도록 고려
7. 윤리 : 네트워크화될 인공지능의 연구 개발을 수행함에 있어 인간의 존엄성과 개인의 자율성 존중
8. 책임 : AI 연구원 또는 개발자와 네트워크를 통해 시용자와 같은 이해 관계자에 대한 책임성 부여
[ 사티아 나델라의 인공지능 규칙 ] 나델라 MS CEO의 AI 규칙. ‘편견의 방지‘ 제시된 것이 특징.
1. 인공지능은 인간을 돕기 위해 개발되어야 한다.
2. 인공지능은 투명해야 한다.
3. 인공지능은 인간의 존엄성을 파괴하지 않으면서 효율을 극대화해야 한다.
4. 인공지능은 개인정보 보호를 위해 설계되어야 한다.
5. 인공지능은 의도하지 않은 피해를 인간이 복구할 수 있도록 (인간에 대한) 알고리원의 설명 책임을 지닌다.
6. 인공지능은 차별 또는 편견을 방지해야 한다.
|