.
팩트폭격기 쇼펜하우어"도 아니고 너무 부정적으로 보는 거 아니냐고? 항상 세상을 긍정적인 호기심이 가득한눈으로 바라봤던 스티븐 호킹 형님도 인공지능의 위험성에 대해서만큼은 날카롭게 경고했었다.** 인공지능이 위험한 이유는 인류에 대한 악의가 아니라 오로지 보유한 능력때문이다. 스스로 생각하고 판단하는 인공지능이 어느 순간 목표를 세웠다고 가정해보자. 이 목표와 인류가 추구하는 방향이 맞지 않는다면 바로 그때가 <터미네이터> 네 번째 시리즈인 ‘미래 전쟁‘의 시작이다. 우리가 강가에 수력발전소를 세울 때 그 부지에 살고 있는 개미 가족의 생계까지고려하지는 않는다. 마찬가지로 인공지능에겐 인류나 개미나 둘 다 다를 바 없다고 여길 수도 있고 아무 생각 없이 몰살시켜도 하등의 죄책감 따위가 없을 수도 있다. 슬슬 무섭다.