AI 또는 AI 로봇은 과학기술의 발달 과정에서 다양한 단계적 발달로 나타날 것이다. 이러한 동적인 변화를 단적으로 표현한 것이 강한 AI와 약한 AI의 구분이지만, 현실에서의 발전은 더 많은 단계에서 이루어질 것이다. 따라서 각 변화 단계마다. 제기될 수 있는 윤리적 문제와 고려사항이 달라질 수 있으며, AI 또는 AI 로봇의 발전이 고도화되어 인간과 AI 사이의 관계가 동등 수준 이상에 도달했을 때는 기존의 ‘인간중심주의(anthropocentrism)‘에 기반을 둔 도덕이 아닌 새로운 도덕 개념과 새로운 윤리학, 예를 들면 ‘피동자와 존재중심적인 거시 윤리학(patient-orient-ed, ontocentric macroethics)‘과 같은 윤리학이 제시될 수도 있을 것이다(Floridi, 2013). - P133
AMA가 인간을 윤리적으로 대우하도록 만든다는 의미는 AMA가 윤리 주체(subject)라는 의미일 텐데, 여기서 주체라는 의미는 전통적인 의미에서 내재적 속성과 관련되었다고 말하는 것이 아니라 그렇게 보인다‘라는 표현 속성의 의미에서 ‘인정된다(recognized)‘이다. - P138
3단계 수준의 AI 또는 AI 로봇에 적절한 행위자 개념 중 하나는 플로리디(Luciano Floridi)와 샌더스(J. W. Sanders)가 제시한 인공 행위자개념이다. 그들은 "On the Morality of Artificial Agents" (2004)라는 논문에서 행위자의 중요한 세 가지 핵심 성질인 상호작용성(interacti-vity), 자율성(autonomy), 적응성(adaptability)을 인공 행위자에 부합하도록 재해석하고 재규정한다. 왜냐하면, AI 또는 AI 로봇을 행위자로규정해야만 실용적인 인식이 가능한 지평, 즉 어떤 추상화 수준(a le-vel of abstraction)에서는 전통적인 행위자 개념이 부적절하기 때문이다. - P139
|