규정 regulations
‘규정‘은 구속력 있는 입법 행위이다. 그것은 유럽연합 전체에 적용되어야한다. 예를 들어 유럽연합이 유럽연합 밖으로부터 수입된 제품들에 공동의보호 장치를 두고 싶을 경우 위원회가 규정을 채택했다. 

지시 directives
‘지시‘는 모든 유럽연합 국가들이 해내야 하는 목적을 적어놓은 입법 행위이다. 하지만 이들 목적에 어떻게 갈지에 대한 자기들 법을 고안하는 것은개별 국가들에 달려 있다. 한 예는 유럽연합 소비자 권리 지시인데 유럽연합전체의 소비자들의 권리를 강화하는 것이다. 

결정 decisions
‘결정‘은 해당되는 대상들(즉 유럽연합 국가 또는 개별 회사)에게 구속력이 있고 직접 적용될 수 있다. 예를 들면 위원회는 유럽연합에 다양한 반 테리조직의 작업에 참여하도록 결정을 했다. 

권고 recommendation
‘권고‘는 구속력이 없다. 위원회가 유럽연합 국가들의 사법 당국에게 국경을 넘어 사법 서비스가 잘 작동할 수 있도록 화상 회의의 사용을 개선하라고권고했을 때 이는 아무런 법적 효과를 갖고 있지 않았다. 권고는 해당 기관에 법적 의무를 부과하지 않은 채 기관의 견해를 밝히고 행동 방침을 제안할 수 있도록 한다. - P222

인공지능에 대한 국제 규정은 위 선택들의 조합으로 만들어져야만 한다.
규정들은 그것들이 그 실행에 대해 아무런 재량을 허락하지 않으므로 가장직설적인 수단이다. 그러므로 그 활용은 가장 근본적 원칙으로만 제한되어야하는데 어떤 류의 국가별 개정도 불가능하다.
달성 결과에 대해서만 구속력이 있는 (유럽연합 지시 같은) 법규는 국제 규범이 바람직하다는 것과 자기들 고유의 방법과 구조를 선택할 수 있는 국가들에 널리 퍼져 있는 본능 사이에서 좋은 타협점을 제공한다. 다른 구속적선택안 또는 비구속적 선택안이 적절하게 이용될 수 있다. 인공지능과 관련된 모든 법들의 완벽한 조화가 당장 일어날 필요는 없다. 한 가지 모델은 어떤 분야에서 구속력 없는 권고로 시작하면서, 여러 해 또는 수십 년에 걸쳐점차 그것들이 강제되는 정도까지 늘린다는 생각을 갖는 것이 한 가지 모델일 수 있다.  - P223


댓글(0) 먼댓글(0) 좋아요(3)
좋아요
북마크하기찜하기 thankstoThanksTo
 
 
 

국제 규범의 상황

국가 인공지능 정책은 나라들의 세계 질서 속 현재 위상뿐 아니라 미래에있고자 희망하는 위상과 묶여 있다. 일본은 인공지능 규제의 개발을 그 산업전략의 일부로 본다. 중국에게 그 이슈는 경제적인 것이자 국제 정치적이다.
인공지능에서 세계를 선도하는 국내산 산업을 만들려는 중국의 노력은 인공지능의 국제적 담론에 연결되어 있긴 하나 영향을 미치려는 노력과 같지는 - P209

않다. 첫 목적이 성공하지 못해도 두 번째는 할 수 있을 수 있다. 마치 미국이 20세기에 걸쳐 수많은 분야에서 그랬듯이 중국이 이제는 전 세계 인공지능 규범을 만드는 데 선도적 역할을 찾으려고 한다는 최근의 시사들이 있다.
적어도 당분간은 미국 정부가 전 세계 법규 제정 역할에서 물러난 듯이 보인다. 유럽연합이 이제 자체의 포괄적 인공지능 규제 전략의 개발 쪽으로 움직이기 시작했지만, 모든 세계적 표준의 주관자가 되기 위해서는 중국 그리고일본과 경쟁하고 있음을 알게 될 것이다.
19세기에는 주요 유럽의 권력들이 아프가니스탄을 갖기 위한 "큰 게임" 그리고 "아프리카 고투에서, 물리적 영토에 대한 영향력을 위해 경쟁했다. 20세기에는 미국과 소련이 "우주 경쟁의 기술에 대해 서로 경쟁했다. 21세기는 인공지능에 대한 유사한 권력 투쟁이 특징일지도 모르는데 기술의 개발만이 아니라 규정을 쓰는 면에서도 그렇다.  - P210


댓글(0) 먼댓글(0) 좋아요(2)
좋아요
북마크하기찜하기 thankstoThanksTo
 
 
 

형사책임과 인공지능

프로그래머들이 형사 제재를 받을 수 있는 경우라면 형사 책임의 심각성 때문에 새롭고 더 강력한 인공지능의 발전과 개발에 찬바람이 불 수 있다.

인공지능이 일으킨 피해의 피해자에게 배상하는 재정적 부담은 고용주 또는보험업자에게 전가될 수 있거나 단순히 사업적 위험처럼 다뤄질 수 있다. 

반면에 형사 책임은 일반적으로 개인적이며, 개개의 사람이 단지 윗사람의 명령에 따랐을 뿐이라고 말해서 피하는 것이 어렵다. 더욱이 유죄는 돈으로 대체되거나 삭제될 수 없는 사회적 비용을 갖고 있다. 이런 위협이 프로그래머들 위에 걸려 있으면 유용한 기술을 발명하거나 출시할지 망설일 수 있다.  - P110


댓글(0) 먼댓글(0) 좋아요(4)
좋아요
북마크하기찜하기 thankstoThanksTo
 
 
 

대리책임의 장점과 단점

대리 책임이 인공지능의 독립적 대리권을 인정하는 것과 그 행위에 책임지는 현재 인정된 법인격을 갖는 것 사이의 균형을 유지한다. 과실과 제조물책임은 인공지능을 대리인보다는 사물로서 정하려 하는 반면, 대리 책임은그렇게 제한적이 아니다. 이런 이유 때문에 예상할 수 없는 인공지능의 일방적 또는 자율적 행동이 책임을 지는 사람과 피해 간의 인과 관계 고리를 깨뜨릴 만큼 반드시 작동하지는 않는다. 그러므로 대리 책임 모델은 인간이 만든 다른 개체들과 차별화되는 인공지능의 독특한 성능들에 더 잘 맞는다. - P92

대리 책임이 일반적으로 대리인이 행한 행동의 어떤 영역으로 제한된다는 사실은 장점이며 단점이기도 하다. 인공지능의 모든 행위가 인공지능의 소유자 또는 운영자에게 반드시 돌아가지는 않는다는 뜻이다. 그래서 인공지능이 정해진 과제로부터 더 멀리 벗어날수록 책임에서 갭이 더 커질 것이다. 단기적 그리고 중기적으로, (주로 협의의) 인공지능이 제한된 폭 내에서 작동하는 동안에는 이런 걱정이 덜 하다. - P92


댓글(0) 먼댓글(0) 좋아요(4)
좋아요
북마크하기찜하기 thankstoThanksTo
 
 
 

2015년 BBC 라디오 프로그램에서 사회자가 여러 전문가들에게 "이 분야의 새로운 법률을 필요로 합니까"라고 물었다. 인터넷 법학 교수 릴리언 에드워드가 회의적 접근법으로 정리했다

"우리가 인공지능을 위한) 아주 새로운 법을 필요로 한다고 난 생각하지 않는다. 법률가가 아닌 대부분의 사람들이 이해하지 못하는 법의 본질은 법이란 원칙들로 규정되는 것인데, 법적 책임 제도의 아주 많은 원칙들이 이미있다는 것이다. 우리는 과실 법규, 제조물 책임 법규, 보험법에서 위험을 분배하는 법 역시 갖고 있다. 새로운 기술이 올 때마다 말썽은 있게 마련이다.
우리는 배에 법률을 적용하는 어려움. 말에 법을 적용하는 어려움을 갖고있다. 그러므로 법이 개편되며 논의되고 소송될 필요가 없는지는 분명치 않지만 대단히 근본적인 새로운 법을 필요로 한다고는 생각하지 않는다."

같은 프로그램에 등장한 변리사 마크 딤hark Deem은 에드워드에게 동의하면서 해결책으로 점진적 발전을 지지했다. 말하기를 "법률은 간격을 메꿀 바로 이 능력을 갖고 있으며 우리는 그것을 붙잡아야 한다"." 이 장의 나머지는 점진적 접근법이 어째서 문제가 많은지 말하고 있다. - P47


댓글(0) 먼댓글(0) 좋아요(4)
좋아요
북마크하기찜하기 thankstoThanksTo