로봇의 지배 - 인공지능은 어떻게 모든 것을 바꿔 놓았나
마틴 포드 지음, 이윤진 옮김 / 시크릿하우스 / 2022년 9월
평점 :
장바구니담기


 오픈 에이 아이의 GPT-3의 공개 이후로 인공지능에 대한 관심이 뜨겁다. 시류를 타고 GPT-3에 대한 책도 많이 나오고 있는데 앞서가는 사람들은 이것을 이미 자신의 업무에 쓰고 있어 몇몇 기업과 교육기관은 정보유출 및 부작용을 우려로 그 사용을 이미 중단시키고 있다. 

 인공지능에 대한 인간의 기대와 우려는 생각보다 오래되었다. 컴퓨터라는게 개발된 이후 인간처럼 생각하고 행동하며 그 이상을 해내는 인공지능에 대한 기대가 커졌다. 그리고 이로 인해서 기대와 우려가 강해졌다. 기대는 유토피아, 우려는 인공지능에 의한 인간 멸망이다. 이는 많은 소설이나 영화, 만화로 구현되었으며 매트릭스, 터미네이터, 스타트랙, 어벤져스시리즈 등이 그것들이다. 

 초기 컴퓨터가 나왔을 때 사람들은 인공지능이 빠르게 등장할 것이라 예상했다. 하지만 섣부른 기대였다. 생각보다 컴퓨터의 연산이란게 너무 느렸다. 무어의 법칙을 감안해도 인공지능이 나오기까진 매우 오랜 세월이 필요했다. 그래서 인공지능은 초창기 많은 투자를 받았지만 곧 이어 1970-80년대까지 긴 암흑기를 겪는다. 

 인공지능의 개발은 크게 두 분파로 나눠진다. 하나는 연결주의로 인간 뇌의 기본 구조를 모델로 데이터를 이용해 효율적으로 학습할 수 있는 인공지능을 탄생시키자는것이다. 지금 빛을 보고 있는 데이터 학습을 통한 머신러닝이 여기에 해당한다. 다른 하나는 상징적 방식으로 알고리즘을 설계하는 대신 그들이 구축한 시스템에 정보를 직접 수동으로 인코딩하는 방식이다. 이 방식은 인공지능의 암흑기에 잘 작동했고 오토파일럿 시스템 같은 것이 이에 해당한다. 하지만 이런 프로그램은 지금은 인공지능이라 불리지 않는다.

 인공지능이 다시 빛을 본 변곡점은 2011년이다. 이 시기는 컴퓨터의 연상능력이 과거에 비해 막강해졌고 빅데이터가 부상하면서 머신러닝 알고리즘을 통해 새로운 인공지능이 탄생한 해다. 머신러닝은 기본적으로 인간의 뇌를 모방한다. 그래서 인공신경망은 인간 뇌의 뉴런이 작동하는 연결 방식을 수학적으로 윤곽을 잡으려 하는 시도다. 정답을 생성하도록 네트워크를 훈련시키게 되는데 훈련 예제를 입력하고 네트워크의 모든 가중치를 조절하여 점차 정답에 수렴해가는 과정이다. 이런 방식의 반복으로 가중치가 최적화되면 훈련 세트에 포함되지 않은 새로운 예제를 네트워크에 사용할 수 있게 된다. 마침내 가중치를 조절해 네트워크가 거의 매번 정답에 수렴하는데 성공하게 되면 역전파 알고리즘이 등장한다. 역전파는 네트워크 가중치를 한 번에 하나씩이 아닌 모든 가중치를 집합적으로 조정할 수 있어 계산 효율성이 크게 향상된다. 

 이렇게 신경망안에서는 지식 표현이 만들어지고 이 지식에 대한 추상화 수준이 네트워크의 후속 층에서 증가한다. 이미지의 이해에 예를 들면 초기 픽셀 수준에서 모서리, 곡선, 질감의 수준으로 가고 더 나아가 이미지 식별의 본질을 파악하게 되는 것이다. 우리는 현재 네트워크가 이런 식으로 이미지를 이해한다는 것을 알고 있으나 수백만의 상호연결층이 있기에 정확이 어느 부분이 어떻게 작동해 이런 이해에 이르는지에 대해선 파악하지 못한다. 자신들이 만들어낸 인공지능이 정확히 어떻게 작동하는지는 모른다는 전문가들의 말이 거짓은 아닌 셈이다. 즉, 심층신경망은 블랙박스인 셈이다.

 인공지능은 크게 4가지 방식으로 개발된다. 우선 지도학습이다. 주의깊에 레이블한 데이터를 네트워크게 제공해 유용한 학습을 시키는 방식이다. 이 방식의 문제점은 방대한 데이터의 확보인데 현재 기업과 기관은 크라우드 소싱으로 이를 해결하거나 앱이나 플랫폼에서 사용자가 자발적으로 입력한 데이터를 이용하는 방법으로 이를 해결한다. 다음은 강화학습이다. 강화학습은 특정 응용 프로그램에 사용하는 것으로 반복적인 연습이나 시행착오를 통해 역량을 강화한다. 알고리즘은 특정 목표를 달성하면 보상을 얻으므로 무한 반복을 하는데 딥마인드나 게임을 공략하는 인공지능이 이에 해당한다. 세 번째는 생성신경망 방식이다. 대표적인 것이 GPT인데 GPT-3-2는 방대한 텍스트로 훈련받은 생성신경망으로 구성된다. 생성신경망 방식은 생성자와 확인자로 구성되는데 생성자가 진짜와 자신이 만든 가짜를 생성하고 확인자가 이 중 진위를 가리며 서로 무한히 경쟁하는 방식이다. 이를 통해 생성자는 정말 진짜에 가까운 산출물을 구성하게 된다. 이런 식으로 방대한 텍스트를 학습한 GPT는 한 두문장이 입력되면 이를 거의 정확이 예측해 이야기를 생성한다. GPT-2가 15억개의 가중치를 갖고 있다면 이번에 나온 GPT-3는 1750억개로 100배 이상이다. 마지막은 뉴로 심볼릭 방식이다. 연결주의와 상징주의의 결합으로 신경망에 기존 프로그래밍 기법을 더해 인공지능을 만드는 것이다. 저자는 이 방식에 큰 기대를 갖는 듯 하다.

 하여튼 이런 인공지능은 기후위기, 식량 부족, 담수부족, 국가간 분쟁, 주기적 팬데믹등 해결하지 못한 인간의 난제를 해결할 가능성을 갖고 있다. 인공지능은 경우가 무한에 가까운 단백질 접힘을 최근에 완벽에 가깝게 예측함으로써 신약 개발 및 질병의 퇴치에 엄청난 가능성을 선보였다. 하지만 대량 살상 무기의 개발, 개인 사생활의 침해, 인공 지능 자체의 위협, 대량 실업이라는 문제도 내포하고 있다.

 실업에 대해선 우선 통념과는 다르게 인공지능의 등장은 블루 칼라보다는 오히려 화이트 칼라를 더 위협한다. 블루 칼라는 일이 매우 단순한 경우 로봇 팔이나 로봇에 의해 대체되지만 업무 환경이 물리적으로 복잡하고 기술이 섬세하다면 이를 로봇으로 대체하는 것은 쉽지가 않다. 거기에 로봇은 제작과 개조, 유지, 보수가 어렵다. 하지만 화이트 칼라의 경우 단순 정신 노동은 가격이 로봇에 비해 훨씬 저렴한 소프트웨어로 쉽게 대체된다. 때문에 블루보다 화이트가 더 위험할 수 있는 것이다. 여기에 팬데믹은 자동화의 위험을 더욱 가속화했다. 팬데믹 경기침체로 작은 기업은 도산하고 큰 기업은 자동화에 박차를 가했다. 때문에 팬데믹 이후에 기업은 경기가 회복되어도 이전 처럼 사람보다는 자동화에 의존할 가능성이 커졌다. 

 인공지능 및 로봇의 자동화의 영향을 상대적으로 덜 받는 직업은 다음과 같다. 우선 일 자체가 본질적으로 창의적인 직업이다. 창작, 작곡,예술 등인데 물론 인공지능은 이 분야에도 상당한 위협을 가하고 있다. 둘째는 다른 사람과 의미있고 복잡한 관계를 형성하는 직업이다. 간호사, 교사, 사회복지사가 그렇다. 셋째는 예상치 못한 환경에서 높은 이동성과 손재주, 문제해결능력을 요구하는 직종이다. 복잡한 환경에서 노동을 해야하는 기술직이다. 

 자동화는 대량 실직을 가까운 시일내에 가져올 것이다. 이는 경제성장의 큰 축인 수요의 감소로 이어지에 해결책이 필요하다. 저자는 여러 해결책 중 기본 소득을 가장 옹호한다. 기본 소득으로 모든 이의 기본적 소득을 보장하면 소외되는 이도 없으며 의욕을 가진 일부 사람들이 추가 취업이나 창업으로 부수적 소득을 올리고자 하는 동기도 여전히 보장되기 때문이다. 

 미국은 중국과 경쟁을 벌이면서 인공지능에 대해서도 그렇게 하고 있다. 중국의 인공지능에 대한 교육과 개발은 상당한 수준인데 중국은 그 특유성으로 서구 사회에 비해 몇몇 이점을 갖고 있다. 우선 그들은 엄청난 인구에서 파생하는 막강한 인재풀이 있다. 인구가 많은 만큼 인공지능 개발자도 많은 것이다. 또한 많은 인구는 인공지능의 학습에 필수적인 양질의 데이터도 엄청나게 제공한다. 여기에 중국은 서구와는 다르게 각 기업이나 국가 기관이 국민의 사생활이 민감하게 담긴 이 데이터에 매우 쉽게 접근 및 이용이 가능하다. 또한 중국은 국가사회적으로 디지털화를 빠르게 추구해 그 어떤 서구국가보다도 사회 전반의 디지털 전환 정도가 높다. 저자는 중국의 이런 부분에 강한 경계를 드러냄과 동시에 그래도 아직 그 수준이나 산업 구조가 미국의 그것에 못미침을 강조한다. 

 책에서 말하는 마지막 부분인 인공지능의 어두운 부분이다. 인공지능은 적대적 공격에 취약하다. 적대적 공격은 데이터를 통해 학습하는 머신러닝에 의도된 가짜 데이터를 집어 넣어 공격자가 원하는 산출물이 나오게 공격하는 방식이다. 전쟁에 인공지능이 투입되는 경우 적군이 아군의 인공지능의 피아식별에 혼란을 준다면 아군의 무인 병기가 자국군인이나 병기를 공격하는 일이 벌어지는 거시다. 현재 이런 적대적 공격을 방어할 만한 체계의 개발은 매우 어려운 것으로 알려져있다.

 또 다른 문제는 인공지능의 편견이다. 학습한 데이터가 특정 부분에 치우칠 경우 인공지능 역시 그렇게 작용한다. 예로 백인 남성 데이터가 많은 인공지능은 여성이나 다른 소수 인종에 대해 그릇된 판정을 내릴 수 있다. 현재 인공지능 개발자의 12%만이 여성이고 소수 인종 개발자는 그보다 더 적은 편이데 개발자부터가 다양화될 필요가 있다. 인공지능이 학습하는 과정에서 갖게 되는 편견은 드러나는 것 외에도 생각치 못한 다양한 데이터에서 일어날 수있기에 그 수정 및 관리가 어렵다. 

 대량 살상 무기의 개발도 문제다. 인공지능이 수천개의 드론은 조종할 수 있으며 여기에 무기를 탑재한다면 도심지에서 순식간에 대량학살이 일어날 수 있다. 세계 각국은 이에 대한 통제하려 하나 군비경쟁을 벌이는 많은 나라들이 이미 무인 병기 개발에 박차를 가하고 있다. 세계는 이에 대해 강한 관리 및 통제를 할 필요가 있다. 테러 집단에 넘어간다면 그야말로 재앙이기 때문이다.


댓글(0) 먼댓글(0) 좋아요(27)
좋아요
북마크하기찜하기 thankstoThanksTo