[전자책] 박태웅의 AI 강의 2025 - 인공지능의 출현부터 일상으로의 침투까지 우리와 미래를 함께할 새로운 지능의 모든 것
박태웅 지음 / 한빛비즈 / 2024년 9월
평점 :
장바구니담기


1강 걷잡을 수 없는 변화의 물결: 인공지능, 우리의 일과 삶에 급격히 파고들다


“미디어는 메시지다”는 세계적인 미디어 학자 마셜 매클루언이 1964년에 한 말입니다. 미디어는 어떻게 메시지가 될 수 있을까요? 매클루언은 매스미디어Mass Media의 예를 듭니다. 매스미디어라고 하면 매스Mass, 즉 대중을 상대로 하는 매체가 되겠지요. 그렇다면 우리는 당연히 대중이 먼저 존재하고, 그 대중을 대상으로 하는 매체가 생겼을 거라고 생각하기 쉽습니다. 매스가 있으니 그 매스를 대상으로 하는 미디어가 생긴 것 아닌가 하는 것이지요. 매클루언은 그렇지 않다고 말합니다. 우리가 대중을, ‘동시에 같은 뉴스를 보고, 같은 화제를 얘기하고, 같은 패션을 입고, 같은 유행을 타는 사람들’이라는 뜻으로 얘기하는 것이라면, 그런 대중은 매스미디어가 탄생함으로써 비로소 생겨날 수 있었다는 것입니다. 매스미디어가 없었다면 우리가 동시에 같은 뉴스를 볼 수도, 동시에 같은 패션을 즐길 수도, 동시에 같은 노래를 부를 수도 없었을 테니까요. 그러니 매스미디어가 매스의 탄생을 불렀다는 것이지요. 12)


# AI의 진화

1. 운영체제로서의 인공지능(AI as OS) : 장래에 세상의 거의 모든 소프트웨어들이 어떤 형태로는 AI와 연동되어 작동할 것이다.

2. 맥락 인터페이스(Contextual Interface) : 계층적으로 정리하거나, 정확한 키워드를 넣지 않아도, 내 말의 맥락을 이해하고 답변한다(그래픽 유저 인터페이스GUI의 기능 대체).

3. 파트너로서의 인공지능(AI as a Partner) : '함께' 공부하고 '함께' 일하면서 최대의 효용을 얻는다.

4. 멀티모달(Multimodal) : 텍스트, 이미지, 음성, 동영상 등 서로 다른 방식으로 표현된 정보를 함께 처리하거나 활용한다.

5. 더 저렴하게, 더 빠르게, 더 작게(Cheaper, Faster, Smaller) : 매개변수의 크기가 작아지면 한 대의 PC나 스마트폰에 AI를 올릴 수 있다(프라이버시가 보장되고 개인 비서처럼 활용할 수 있다).

6. 인간형 로봇, 휴머노이드(Humanoid) : AI를 써서 모방학습, 강화학습(보상을 통해 올바른 행동을 학습한다), 전이학습(기존 로봇의 학습 내용을 전달받는다)으로 스스로 배워나간다. '몸을 가진 AI'는 언어 이외의 외부세계와 스스로 상호작용할 수 있다.


2강 모두를 놀라게 만든 거대언어모델, LLM의 등장: 챗GPT로 알아보는 인공지능의 정체


CPU는 순차적 계산Serial Computing에 특화돼 있습니다. ‘만약 ~라면 무엇을 해라(if~ then~)’와 같은 일을 말합니다. 순서대로 이어서 계산을 하는 것이지요. 대부분의 프로그램들이 이런 순차 계산을 합니다. 그런데 GPU는 동시에 병렬로 수많은 계산을 할 수 있습니다. 더하기, 빼기와 같은 실수 계산을 하는 데 특화되어 있습니다. 컴퓨터 모니터의 해상도를 흔히 픽셀(화소)의 개수로 표현합니다. 가령 동영상을 표현한다고 생각해보십시오. 수백만 픽셀의 이미지를 초당 60~120장씩 그려내야 합니다. 엄청난 수의 화소를 눈 깜짝할 사이에 계산해내야 하지요. 그런데 대부분의 경우 화면의 이미지들은 동시에 그릴 수 있습니다. 예를 들어 배경의 풀이나 하늘은 주인공과 별개로 그릴 수 있지요. 그래서 병렬 대용량 계산에 특화된 GPU가 필요하게 된 것입니다. GPU는 이렇게 애초에는 그래픽 계산을 위해 만들어졌는데, 뜻밖에 인공지능 시대를 만나 더욱 빛을 발하게 되었습니다. 압도적인 병렬계산 능력 덕분이지요. 37)


인공지능 알고리듬 중에 몬테카를로 알고리듬Monte Carlo algorithm이란 게 있습니다. 가령 〈한 변의 길이가 2미터인 정사각형에 내접한 원의 넓이를 구하시오.〉라는 문제가 있다고 해보지요. 우리는 이 원의 넓이를 쉽게 계산할 수 있습니다. ‘반지름의 제곱×원주율(π)’로 구할 수 있지요. 그런데 인공지능은 이렇게 구하지 않습니다. 몬테카를로 알고리듬은 정사각형 속에 무작위로 발생시킨 점을 쏩니다. 수십만 개, 수백만 개를 쏜 다음, 전체 점의 숫자에서 원에 들어간 숫자의 비율을 구합니다. 우리는 정사각형 넓이가 2m×2m=4㎡라는 걸 알고 있습니다. 여기에 원에 들어간 점이 차지하는 비율을 곱하면 그게 원의 넓이가 됩니다. 대단히 단순한 방식입니다. 그런데 이렇게 구하는 게 반지름의 제곱×원주율(π)로 구한 것보다 빠릅니다. 이 녀석은 1초에 312조 번 실수 계산을 할 수 있기 때문입니다. 인공지능이 하는 일 중에 많은 부분이 이렇게 단순하게 더하기, 빼기를 하는 일입니다. 38) 


기계가 사람처럼 학습하고 추론할 수 있게 하기 위해서 초반에 시도했던 건 ‘전문가 시스템’이었습니다. 가령 고양이 사진을 가려내라는 과제가 있다고 해봅시다. 전문가 시스템은 컴퓨터가 고양이 사진을 가려낼 수 있도록 고양이의 모든 특징을 일일이 사람이 입력합니다. 코는 어떻게 생겼고, 꼬리는 어떻게 생겼고, 털은 어떻게 생겼고, 색깔은 어떻고, 이런 방식으로 말이지요. 초기에는 점수가 점점 올라가는 것 같았습니다. 제법 컴퓨터가 고양이 사진을 골라내기 시작했지요. 그런데 데이터가 일정 규모 이상으로 들어가니 점수가 도리어 떨어졌습니다. 예외가 너무 많기 때문이었죠. 결국 이런 방식으로는 인공지능을 구현하지 못한다는 것을 밝히는 논문이 나왔습니다. 이 때문에 10년씩 두 번의 ‘인공지능의 겨울’이 있었습니다. 그리고 캐나다에서 그 긴 겨울을 버틴 인공지능의 선구자 제프리 힌턴Geoffrey Hinton이 딥러닝에서 새로운 돌파구를 만들어내면서 지금의 인공지능 부흥기가 도래합니다. 38-9)


새로운 접근법은 사진의 차이점들을 구분하는 것까지 모두 인공지능에 맡깁니다. 그러니까 고양이 사진을 15만 장 주고 ‘이 15만 장의 사진들 간 차이점을 네가 다 잡아내라’ 하는 셈이지요. 잡아낸 특징들이 1,000만 개일 수도 있고, 1억 개일 수도 있겠지요. 이 특징들 중에 어떤 것은 ‘고양이’라는 잠재된 패턴과 밀접한 관계가 있을 것이고, 어떤 특징들은 그다지 관계가 없거나, 아무 관계가 없을 겁니다. 이 1,000만 개, 1억 개의 특징들 하나하나에 대해 얼마나 밀접하게 관계가 있는가에 따라 가중치를 주는 거예요. 이렇게 매긴 가중치를 ‘매개변수’라고 부릅니다. 그러곤 ‘어떤 특징들에 몇 점을 줬을 때 고양이를 가장 잘 가려낼 수 있을까’를 끊임없이 돌려보는 거지요. 그러니까 가장 적절한 매개변수 값을 찾을 때까지 계속 바꿔가면서 돌려보는 겁니다. 사람은 평생 해도 마칠 수 없는 계산이지만, 컴퓨터는 합니다. 1초에 312조 번 실수 계산을 하는 녀석이니까요. 이런 GPU를 수십 대, 수백 대, 심지어 1만 대를 붙입니다. 39)


우리가 일상적으로 사용하는 말을 프로그래밍 언어와 구분해서 ‘자연어Natural Language’라고 하는데요, 자연어로 그냥 입력하면 되는 게 ‘챗’GPT입니다. GPT의 ‘G’는 generative, 즉 ‘생성하는, 만드는’이란 뜻입니다. 그러니까 ‘무언가를 만드는 인공지능’이라는 말이지요. 생성형 인공지능은 그림을 학습하면 그림을 그리고, 동영상을 학습하면 동영상을 만들고, 글을 학습하면 글을 씁니다. 챗GPT는 글을 만드는 생성형 인공지능입니다. GPT의 ‘P’는 pre-trained, ‘사전 학습한’이란 뜻입니다. 챗GPT는 무려 3,000억 개의 토큰과 5조 개의 문서를 학습했습니다. 이런 인공지능을 거대언어모델Large Language Model: LLM이라고 부릅니다. ‘사전 학습’에도 두 가지 의미가 있습니다. 하나는 이런 거대한 모델을 사전 학습했다는 뜻이고, 다른 하나는 특별히 학습을 추가로 시키지 않은 전문 분야에 관해 질문해도 마치 원래부터 잘 알고 있는 것처럼 그럴듯한 답을 내놓는다는 뜻입니다. 43-4)


챗GPT의 ‘T’는 Transformer(트랜스포머)입니다. 트랜스포머는 주어진 문장을 보고 다음 단어가 뭐가 올지를 확률적으로 예측합니다. 5조 개의 문서로 학습한 다음, 그것을 근거로 주어진 문장의 다음에 어떤 단어가 배치될지 예측하지요. 그냥 하는 게 아니고 구글의 ‘어텐션Attention’이라는 모델을 사용합니다. 어텐션 모델은 주어진 문장에서 중요한 키워드가 무엇인지를 알아채지요. 앞의 문장에서 핵심 키워드가 뭔지 알 수 있으면 그다음에 올 단어를 무작위로 예측할 때보다 훨씬 높은 정확도로 예측할 수 있습니다. 연산 시간과 비용도 훨씬 줄겠지요. 챗GPT는 단기 기억을 가지고, 앞의 문장들을 계속 기억하면서 추론하는데, 무려 1,750억 개의 매개변수를 갖고 있습니다. 챗GPT는 ‘인간의 피드백을 통한 강화학습Reinforcement Learning from Human Feedback: RLHF’도 했습니다. 이것을 통해서 이전의 인공지능들과 달리 비윤리적인 발언이나, 해서는 안 될 말이 출현하는 빈도를 획기적으로 낮추는 데 성공했습니다. 44)


이 방식의 인공지능이 피할 수 없는 게 있습니다. 바로 ‘할루시네이션Hallucination’인데요, 아주 멀쩡히 거짓말을 하는 걸 뜻합니다. 앞에서 챗GPT는 트랜스포머 모델을 쓴다고 했지요. 챗GPT는 5조 개의 문서로 학습해 잠재적 패턴을 찾아낸 다음, 그 패턴을 이용해 주어진 단어를 보고 그다음에 올 ‘확률적으로 가장 그럴듯한’ 단어를 찾습니다. 말하자면 챗GPT는 참인지 거짓인지를 답하는 것을 배운 게 아닙니다. 트랜스포머 모델을 써서 ‘가장 그럴듯한 말’을 내놓도록 학습을 했지요. 모차르트의 첼로 협주곡에 대해 물으면 쾨헬 넘버(모차르트의 곡에다 연대기 순으로 번호를 붙인 것)까지 붙여서 다섯 곡을 내놓기도 합니다. 모차르트의 첼로 협주곡은 실제로 남아 있는 게 없지만 챗GPT는 쾨헬 넘버까지 붙여서 답을 합니다. 그래야 그럴듯하기 때문입니다. 얀 르쿤은 인공지능이 인간의 지능을 넘어서는 지점을 특이점Singularity이라고 하는데, 거대언어모델로는 절대로 가지 못한다고 말했습니다. 48-9)


3강 인공지능이 인간보다 똑똑해질 수 있을까?: 생성형 AI의 놀라운 능력과 최근의 기술 흐름


우리는 왜 챗GPT에 열광하게 되었을까요? 왜 공개하자마자 전 세계에서 그렇게 많은 사람들이 사용을 하고, 서점은 온통 GPT 책으로 도배가 되었을까요? 이전과는 확연히 다른 두 가지가 있었습니다. 그 첫 번째는 ‘느닷없이 나타나는 능력Emergent ability’입니다. 거대 인공지능의 가장 큰 특징 가운데 하나는 ‘규모의 법칙’입니다. 컴퓨팅 파워를 늘릴수록, 학습 데이터 양이 많을수록, 매개변수가 클수록 거대언어모델 인공지능의 성능이 좋아지는 것을 볼 수 있습니다. 이 셋이 함께 커질 때 성능 향상이 더 잘된다고 합니다. 거대언어모델은 별도의 추가 학습Fine-tuning을 하지 않아도, 특정 분야에 대해 질문하면 대답을 잘합니다. 아무런 예제 없이 묻는 질문에 답하는 것을 제로 샷 러닝Zero shot Learning, 몇 가지 예제와 함께 질문할 때 답하는 것을 퓨 샷 러닝Few shot Learning이라고 하고, 이 둘을 합해 질문 속에서 배운다는 뜻으로 인 콘텍스트 러닝In Context Learning: ICL이라고 부릅니다. 70-1)


또 하나의 느닷없이 나타나는 능력 중 하나가 ‘생각의 연결고리Chain of Thoughts: COT’입니다. 단계적으로 추론하는 것을 말합니다. 어떤 질문이 주어졌을 때 그 질문에 답을 하기 위한 중간 추론 단계들을 생각의 연결고리라고 부릅니다. 생각의 연결고리는 다음과 같은 장점을 갖습니다. 첫째, 연쇄적 사고는 원칙적으로 모델이 다단계 문제를 중간 단계로 나눌 수 있게 해주기 때문에, 더 많은 추론 단계가 필요한 문제에 추가 계산을 할당할 수 있습니다. 둘째, 사고 연쇄는 모델이 특정 답에 어떻게 도달했는지를 들여다보고 추론 경로가 잘못된 부분을 고칠 수 있는 기회를 제공합니다. 셋째, 연쇄 추론은 수학 단어 문제, 상식적 추론, 기호 조작과 같은 작업에 사용할 수 있으며, 인간이 언어를 통해 해결할 수 있는 모든 작업에 (적어도 원칙적으로는) 잠재적으로 적용될 수 있습니다. 마지막으로, 생각의 연쇄 추론은 질문에 단계적 추론의 예를 포함하는 것만으로도 (충분히 큰 기성 언어모델에서) 쉽게 도출할 수 있습니다. 72-4)


MIT의 인지과학자 안나 이바노바Anna A. Ivanova와 카일 마호월드Kyle Mahowald 등은 말하기와 생각하기가 다르다는 점에서 거대언어모델의 한계를 지적합니다. ‘언어’와 ‘사고’는 분리돼 있어서, 언어를 통한 의사소통과 사고 행위는 서로 다른 일이라는 것입니다. 이들이 제시하는 증거는 이렇습니다. 수십 개의 언어를 사용하는 사람들의 뇌를 스캔한 결과, 언어의 종류와 무관하게 작동하는 특정 뉴런 네트워크가 발견되었습니다. 이 뉴런 네트워크는 수학, 음악, 코딩과 같은 사고 활동에는 관여하지 않았습니다. 또한 뇌 손상으로 인해 언어를 이해하거나 산출하는 능력이 상실된 실어증 환자 중 상당수는 여전히 산술 및 기타 비언어적 정신 작업에는 능숙합니다. 이 두 가지 증거를 종합하면 언어만으로는 사고의 매개체가 아니며, 언어가 오히려 메신저에 가깝다는 것을 알 수 있습니다. 요컨대 거대언어모델은 언어에 대한 좋은 모델이지만, 인간 사고에 대해서는 불완전한 모델이라는 것입니다. 83-4)


제프리 힌턴 토론토대 교수는 “신경망은 전혀 다른 지능”이라고 말합니다. 그가 두려운 것은, 인공지능이 작업을 수행하는 데 필요한 중간 단계인 자체 하위 목표를 스스로 만들게 되는 것이라고 말합니다. 중간 목표란, 주어진 목표를 이루기 위해서 필요한 중간 단계를 말합니다. 예를 들어 사람에게 해롭지 않은 목표를 주었다고 해도 인공지능이 스스로 중간 목표를 정할 수 있다면, 이 일은 아주 위험해질 수 있습니다. 가령 ‘방의 이산화탄소 농도를 낮춰줘’라는 명령을 줬다고 해봅시다. 인공지능은 창문을 열어서 환기하는 대신, 방에서 이산화탄소를 만들어내는 존재들을 없애면 그게 가능할 거라고 판단할 수도 있습니다. 힌턴은 40년 동안 인공 신경망을 생물학적 신경망을 모방한 부실한 시도로 여겨왔습니다. 하지만 이제는 상황이 바뀌었다고 생각합니다. 힌턴은 이제 세상에는 동물의 뇌와 신경망이라는 두 가지 유형의 지능이 있다고 생각합니다. “완전히 다른 형태의 지능, 새롭고 더 나은 형태의 지능입니다.” 84-5)


거대언어모델의 경우 어마어마한 양의 정제한 데이터를 가지고 일정 기간 학습을 해야 합니다. 그러니 학습이 시작된 이후의 최신 정보들에 대해서는 지식이 없습니다. 그래서 최신 뉴스에 대한 답변을 잘하지 못합니다. 숫자 계산에도 약하고요. 그런데 챗GPT가 계산기를 쓰고, 검색엔진을 쓸 수 있게 된다면 어떨까요? 즉, 도구를 쓰게 된다면 어떻게 될까요? 실제로 그런 일이 일어났습니다. 오픈AI가 내놓은 플러그인Plug-ins이 바로 챗GPT가 도구를 쓸 수 있도록 해준 것이죠. 챗GPT가 이런 서비스들을 쓸 수 있게 된 것은 API, Application Programming Interface 덕분입니다. API는 말하자면 프로그램 간의 인터페이스입니다. 프로그램끼리 소통할 수 있도록 만든 규약이라는 뜻입니다. “내가 발급한 API를 사용하여 요청을 하면 정해진 포맷대로 데이터를 주거나, 정해진 행동을 하겠다”라는 것입니다. API를 쓰면 사람이 개입하지 않고도 컴퓨터 간에 자동으로 정해진 데이터를 받거나 정해진 결과를 얻을 수 있습니다. 86-7)


이런 일을 아주 제대로 해보자 하고 만든 게 랭체인LangChain입니다. 랭체인은 ‘Language’와 ‘Chain’의 조합입니다. 대규모 언어모델을 기반으로 애플리케이션을 쉽게 개발할 수 있게 해주는 오픈소스 프레임워크Framework입니다. 프레임워크는 ‘뼈대’, ‘골조’라는 뜻입니다. 조립식 주택은 골조를 세우고 나면 나머지 벽체와 지붕 등은 모듈을 가져다 붙이기만 하면 되지요. 소프트웨어 프레임워크란 이처럼 애플리케이션을 개발할 때 공통적으로 필요한 기능들을 미리 만들어놓은 것을 말합니다. 랭체인은 API와 함께 라이브러리도 사용합니다. 라이브러리는 도서관이라는 뜻인데, 프로그래밍에서는 자주 쓰이는 코드를 모아놓은 것을 말합니다. 도서관에서 책을 빌려 보듯이, 필요한 코드를 쉽게 가져다 쓸 수 있도록 만들어둔 곳입니다. IT 업계에서는 오픈소스가 거대한 문화로 자리 잡고 있습니다. 덕분에 IT 업계는 다른 어떤 산업보다도 집단지성이 가장 강력하고 효과적으로 발휘되는 곳이 됐습니다. 88)


4강 열려버린 판도라의 상자: AI의 확산, 그리고 필연적으로 도래할 충격들


오픈AI는 본래 비영리재단으로 출발했습니다. ‘AGI가 어느 영리회사의 소유여서는 안 된다. 위험 여부를 알 수 있게 개발 과정이 투명해야 한다’는 취지였습니다. 그래서 이름도 ‘오픈’AI로 지었습니다. 지금의 오픈AI는 그 비영리재단이 세운 자회사입니다. 마이크로소프트가 49퍼센트, 기타 투자자가 49퍼센트, 오픈AI 재단이 2퍼센트의 지분을 갖고 있지만, 이사회를 이 재단이 결정하는 구조로 돼 있었던 것도 그 때문입니다. 오픈AI는 설립 초기부터 컴퓨팅 자원의 20퍼센트를 슈퍼 얼라인먼트, 다시 말해 윤리적 개발에 할당하기로 했습니다. 애초의 취지가 그랬으니까요. 그런데 알고 보니 슈퍼 얼라인먼트 팀은 사실상 해체에 가까웠고, 자원도 제품 개발에 우선 배분해온 것이 드러난 것입니다. 오픈AI는 GPT-4부터는 스펙도, 모델도 공개하지 않고 있습니다. 모델의 크기, 투입한 하드웨어의 규모, 학습에 사용한 데이터 세트, 훈련 방법 어느 것도 밝히지 않습니다. 단지 API만 공개했습니다. 116-7)


MIT 물리학과 맥스 테그마크Max Tegmark 교수가 2023년 4월 25일 〈타임〉에 “인공지능으로 우리를 파멸시킬 수 있는 ‘올려다보지 마’ 사고방식”이라는 글을 실었습니다. 그의 말은 다음과 같습니다. 초지능이 인류를 멸종시킨다면 그것은 아마도 그것이 사악해지거나 의식을 잃었기 때문이 아니라, 유능해지고 목표가 우리와 맞지 않게 되었기 때문일 것입니다. 인간이 서아프리카 검은코뿔소를 멸종시킨 것은 코뿔소를 혐오해서가 아니라 인류가 코뿔소보다 더 똑똑하고 서식지와 뿔을 이용하는 방법에 대한 목표가 달랐기 때문입니다. 마찬가지로, 거의 모든 개방형 목표를 가진 초지능은 자신을 보존하고 그 목표를 더 잘 달성하기 위해 자원을 축적하려고 할 것입니다. 금속 부식을 줄이기 위해 대기 중 산소를 제거할 수도 있습니다. 코뿔소에게 어떤 일이 일어날지 예측할 수 있었던 것보다 훨씬 더 가능성이 높은 일은, 우리가 예측할 수 없는 하찮은 부작용으로 멸종하는 것입니다. 118-9)


필연적으로 오게 될 여러 가지 일들 중 첫 번째는 바로 ‘오리지널의 실종’입니다. 인공지능이 만든 데이터로 학습한 인공지능이 대를 거쳐 가면서 아주 쉽게 붕괴한다는 것을 확인한 논문도 있습니다. 옥스포드대학교의 컴퓨터 과학자 일리아 슈마일로프Ilia Shumailov 등이 쓴 〈재귀적 생성 데이터로 훈련한 인공지능 모델의 붕괴AI models collapse when trained on recursively generated data〉에 따르면 인공지능이 생성한 학습 데이터로 훈련한 인공지능은 마치 종의 근친교배와도 같이 붕괴해버립니다. 생성모델은 자신이 생성한 데이터로 훈련을 거듭할수록 점차 원본 데이터의 분포를 잃어가게 되는데 특히 분포의 꼬리 부분, 즉 빈도가 낮은 부분을 쉽게 잃게 됩니다. 초기 단계에서는 드문 특징들(예를 들어 아주 키가 큰 사람, 아주 키가 작은 사람)을 잊기 시작하다가, 나중이 되면 인공지능이 만든 것들이 본래 데이터와는 비슷하지도 않게 됩니다. 대를 거듭할수록 오차가 점점 더 증폭되기 때문입니다. 121)


이미지넷(image-net.org)은 세계 최대의 오픈소스 이미지 데이터베이스입니다. 1,000만 개가 넘는 이미지가 있는데, 하나하나 일일이 사람이 분류해서 레이블을 붙인 자료입니다. 그런데 2019년까지 이 데이터베이스의 사람 분류 항목에 다음과 같은 이름표들이 붙어 있었습니다. 〈재소자, 낙오자, 실패자, 위선자, 루저(loser), 우울증 환자, 허영주머니, 정신분열증 환자, 이류 인간……〉 그러니까 이 데이터는 사람의 얼굴만 보면 그가 이류 인간인지 아닌지, 허영주머니인지 아닌지를 알 수 있다고 인공지능에게 가르쳐온 것입니다. 이미지넷은 결국 2019년 2,832개의 사람 범주 중에서 1,593개(약 56퍼센트)를 안전하지 않다고 간주하여 관련된 이미지 60만 40건과 함께 삭제했습니다. 그렇지만 여전히 ‘미시경제학자’, ‘조교수’, ‘부교수’와 같은 이름표가 남아 있습니다. 우리는 사람의 얼굴만 보면 그 사람이 미시경제학자인지 아닌지, 혹은 조교수까지 할 수 있는 사람인지, 부교수까지는 올라갈 사람인지를 알 수 있다는 뜻일까요? 126)


5강 신뢰할 수 있는 인공지능, 어떻게 구축할까?: 세계 각국의 윤리 원칙과 법제화 노력


유럽연합에는 녹서Green Paper라는 제도가 있습니다. 사회적으로 함께 답을 찾아야 할 어떤 일이 있을 때 ‘그 일에 제대로 대처하기 위해서 우리는 어떤 질문에 대답해야 하는가?’라는 것, 그러니까 우리가 답해야 할 질문들을 모아서 묶은 보고서입니다. 이런 과정을 몇 년간 거치고 나서야 정부는 공론화를 통해 모인 답을 묶어 보고서를 내놓습니다. 이게 바로 백서White Paper입니다. 2020년까지 전 세계에서 발표한 AI 관련 원칙은 80여 개에 이릅니다. 그중 주요한 36개의 보고서에서 제시한 다양한 원칙을 47개로 분류해보았습니다. 그러자 가장 공통이 되는 여덟 개의 핵심 주제가 드러났습니다. 〈프라이버시 / 책임성 / 안전과 보안 / 투명성과 설명가능성 / 공정성과 차별 금지 / 인간의 기술 통제 / 직업적 책임 / 인간 가치 증진〉 전 세계적으로 인공지능의 윤리와 관련하여 이 여덟 가지에 제대로 답할 수 있다면 우리는 안전한 인공지능을 향한 첫 번째 발걸음을 뗄 수 있다는 뜻이 됩니다. 132-4)


2017년에 제정된 '아실로마 AI 원칙Asilomar AI Principles'은 인공지능 개발의 방향이 분명히 ‘인간에게 유익하도록’ 해야 한다는 것, 컴퓨터 과학뿐 아니라 법, 윤리, 경제 등 범학제적 협력이 필요하고, 개발자 간에도 경쟁보다는 부실한 개발을 피하기 위해 적극 협력하는 게 더 중요하다고 정리합니다. 윤리 및 가치에서는 안전성과 투명성 그리고 인간의 가치와 권리 존중, 공동의 이익과 공동의 번영, 개인정보 보호 및 자유 보장 그리고 인간의 통제력 유지와 치명적인 AI 무기 개발 회피를 요구합니다. 장기 이슈로는 초지능의 능력이 어디까지 가능할지에 대한 상한을 미리 두지 말 것, 인류의 실존적 위험, 즉 인류의 멸종을 부를 수도 있을 위험에 대한 계획과 완화 노력이 있어야 한다는 것, 인공지능 시스템이 스스로 자기 개선 또는 자기 복제를 하게 될 경우 엄격한 안전 및 통제 조치를 받아야 한다는 것, 그리고 초지능은 몇몇 국가나 조직이 아닌 모든 인류의 이익, 공동선을 위해 개발돼야 한다고 선언합니다. 135)


유럽연합이 2019년 4월에 발표한 '인공지능 가이드라인'에는 인간의 기본권에 입각한 윤리 원칙 넷이 포함됩니다. 그것은 인간 자율성에 대한 존중, 피해 방지, 공정성, 설명가능성입니다. 이 법은 인공지능이 가져올 위험을, 허용할 수 없는 위험, 높은 위험, 제한된 위험, 최소 또는 낮은 위험의 네 가지 수준으로 분류합니다. 허용할 수 없는 위험 애플리케이션은 기본적으로 금지되며 배포할 수 없습니다. 여기에는 다음이 포함됩니다. • 잠재의식 기법 또는 행동을 왜곡하기 위한 조작 또는 기만 기법을 사용하는 AI 시스템 • 개인 또는 특정 그룹의 취약점을 악용하는 AI 시스템 • 민감한 속성 또는 특성에 기반한 생체 인식 분류 시스템 • 사회적 점수 매기기 또는 신뢰도 평가에 사용되는 AI 시스템 • 범죄 또는 행정 위반을 예측하는 위험 평가에 사용되는 AI 시스템 • 비표적 스크래핑을 통해 얼굴 인식 데이터베이스를 생성하거나 확장하는 AI 시스템 • 법 집행, 국경 관리, 직장 및 교육 분야에서 감정을 추론하는 AI 시스템. 141-2)


6강 우리 사회는 어떻게 대응해야 하는가?: '눈 떠보니 후진국'이 되지 않기 위한 제언들


우리나라 정부 자료들은 아직도 hwp가 아니면 pdf 포맷입니다. 이것들은 컴퓨터가 자동으로 처리하지 못합니다. 즉 기계가 읽을 수 없습니다. 정부는 정부 문서들의 포맷을 바꿀 예정이지만 그 기한은 2025년 이후로 미뤄져 있습니다. 한두 장이면 새로 넣어서 컴퓨터에 입력할 수도 있지만, 정부가 내놓는 공문서는 수십만, 수백만 장을 쉽게 넘어갑니다. 자동으로 하지 않으면 입력할 도리가 없으니 컴퓨터에게는 사실상 없는 문서와 같습니다. 거대언어모델 인공지능은 문서로 학습해야 하는데, 한국은 정부가 나서서 학습을 방해하고 있는 꼴입니다. 반면 미국은 어떨까요? 미국은 공공데이터의 조건을 명확히 정의하고 있습니다. ‘FAIR’ 해야만 공공데이터라는 것입니다. F: findable, 검색 가능해야 하고, A: accessible, 접근할 수 있어야 하며, I: interoperable, 호환성이 있어야 하고, 즉 표준을 지켜야 하고, R: reusable, 재사용할 수 있어야 ‘공공데이터’라고 부를 수 있다는 것입니다. 176-7)


제가 이런 얘기를 하면 ‘당신이 몰라서 그런다, 행정부에서 여러 가지로 열심히 법안들을 준비 중’이라고 반론을 펴는 경우도 있습니다. 아주 중요한 것을 빠트린 이야기입니다. 무엇을 빠트렸을까요? ‘공론화!’입니다. 인공지능은 어느 한 분야의 일이 아닙니다. 인공지능같이 중요한 일을 한 줌도 안 되는 IT 분야 슈퍼 엘리트들에게만 맡겨둘 순 없습니다. 인지심리학, 윤리학, 사회학, 법학, 철학 등 다양한 학제적 연구를 통해 인공지능이 인류에게 미칠 영향을 두루 살펴야 합니다. 시민사회, 학계, 기업, 노동조합, 시민단체 등 다양한 이해관계자들이 머리를 맞대고 대처방안을 찾아야 합니다. 그래서 공론화가 필요한 것입니다. 인공지능에 대해 깊은 지식이 없는 행정 공무원 몇이서 밀실에서 리포트를 만들어서 대처하겠다는 건, IT 분야의 슈퍼 엘리트들이 알아서 잘하도록 맡겨놓자는 것과 별반 다를 게 없는 일입니다. ‘공론화’를 통해 집단지성을 모으고, 각계각층의 이해관계를 두루 반영할 기회가 아직 남아 있습니다. 178)


대한민국은 세계 최고의 후발 추격국이었습니다. 미친 듯한 속도로 앞선 나라들을 따라잡으며 여기까지 왔습니다. 그 결과 대한민국은 세계 최고의 ‘양산기술’을 가진 제조 강국이 됐습니다. 문제는 우리가 ‘눈 떠보니 선진국’이 됐다는 것입니다. 엄청난 속도로 선진국이 되긴 했으나, 그사이에 빠트린 것, 건너뛴 것이 많았습니다. 그중 대표적인 게 ‘원천기술’과 ‘기초과학’입니다. 대한민국은 양산기술의 강국이긴 하나, 원천기술이 턱없이 빈약합니다. 후발 추격국으로서는 충분했지만, 선진국으로선 치명적인 약점이 됩니다. 선진국들은 강력한 경쟁국이 되어버린 대한민국에 더 이상 원천기술을 제공하지 않습니다. 자력으로 원천기술을 확보해야 할 시간이 된 것입니다. 원천기술은 탄탄한 기초과학에서 나오는데, 기초과학은 아주 긴 호흡으로만 자라납니다. 정부가 과학과 기술 정책의 호흡을 바꾸지 않고, 후발 추격국의 태도와 전략을 버리지 못한다면 우리는 머지않아 다시 ‘눈 떠보니 후진국’이 되어버릴지도 모릅니다. 188)


맺음말


인공지능 분야에서는 무엇보다 학제 간 연구와 국제적 연대가 요구됩니다. 인류의 공동 대처라니? 너무 무망한 일이 아닐까요? 그렇지 않습니다. 인류는 비록 미흡하지만 몇 차례 공동 대처에 성공한 적이 있습니다. 1975년의 아실로마 회의가 그것입니다. 유전과학자들이 실제로 모든 실험을 멈춘 덕분에 생명공학은 인류 공동의 기준을 가질 수 있게 됐습니다. 미국과 소련이 냉전으로 맞붙던 1970년대와 1980년대에도 인류는 전략핵무기 통제를 위한 협의를 멈추지 않았습니다. 솔트 1SALT: Strategic Arms Limitation Talks(전략무기 제한협상)은 1969년부터, 솔트 2는 1972년부터, 그리고 스타트 1START I: Strategic Arms Reduction Treaty(전략무기 감축조약)이 1982년부터 협의가 시작됐고, 1991년부터는 실제로 전략핵무기의 감축이 실현됐습니다. 인공지능에도 기회는 남아 있습니다. 이것이 나라 간의, 기업 간의 군비경쟁이 아니라는 데 합의할 수 있다면 인류는 또 한 번 새로운 공동규칙을 만들어낼 수 있을 것입니다. 191)




댓글(0) 먼댓글(0) 좋아요(0)
좋아요
공유하기 북마크하기찜하기 thankstoThanksTo