-
-
비전공자도 이해할 수 있는 AI 지식 - 구글 검색부터 유튜브 추천, 파파고 번역과 내비게이션까지 일상을 움직이는 인공지능 이해하기
박상길 지음, 정진호 그림 / 반니 / 2022년 3월
평점 :
구판절판
2010년, 스탠퍼드대학교의 페이페이 리 교수는 약 100만 장의 이미지를 1,000개의 카테고리로 분류하는 이미지넷 대규모 시각 인식 챌린지 ILSVRC 를 주최합니다. 사람이 직접 분류한 이미지와 기계가 자동으로 분류한 이미지가 얼마나 일치하는지를 겨루는 대회였죠. 여기서 '사람이 직접 분류하는 일은 '메케니컬 터크'를 이용해 진행했씁니다.
250년 전 사람이 직접 들어가 체스르 두었던 그 자동기계가 맞습니다. 메케니컬 터크가 250년 만에 부활했습니다. (-33-)
그럼에도 불구하고 사실상 엔비디아의 독점 체제가 유지되는 이유는 CUDA 의 존재 때문입니다. 사실상 모든 딥러닝 라이브러리가 CUDA를 우선으로 지원하고 있고 CUDA 플랫폼의 지원 또한 워낙 강력하기 때문에 CUDA 를 지원하지 않는 다른 회사에서 출시한 GPU는 사용하기가 어렵습니다. 마치 모든 게임이 윈도우를 지원하고 윈도우에는 DirectX 가 있기 때문에 윈도우 OS 를 사용할 수 밖에 없는 것과 비슷하다고 할 수 있죠. (-51-)
미 대선 결과를 정확하게 예측하여 일약 스타로 떠오른 통계학자 네이트 실버 는 《신호와 소음 The Signal and the Noise 》 에서 인간을 능가하는 기계를 두고 "기술을 있는 그대로 바라보라" 고 주문했습니다. (-94-)
라이다가 장애물을 발견하면 그 위치를 장애물로 설정하고 그 안쪽은 운전가능 구역으로 설정해 주행 가능한 곳으로 가정하고, 바깥쪽은 미확인 구역으로 설정해 주행할 수 없는 곳으로 가정했습니다. 이렇게 운전가능 구역에서 주행한 기록을 학습 데이터로 삼아 엄청나게 많은 주행 데이터를 수집하여 머신러닝으로 학습했습니다. 기존에는 수많은 규칙을 일일이 입력해야 했지만 이제는 인간이 먼저 운전 가능 구역에서 운전 시범을 보이면 기계가 이를 배우게 한 셈이죠. (-103-)
2014년 구글의 자율주행차는 전동 휠체어를 탄 여성이 빗자루를 들고 도망가는 오리를 쫓아 도로로 나온 상황을 맞닥뜨렸습니다.마찬가지로 난생처음 보는 광경에 구글의 자율주행차는 대응하지 못했죠. (-132-)
이제 알렉사는 단순히 에코의 호출어를 넘어 아마존의 인공지능 플랫폼 그 자체를 가리키는 이름이 되었습니다. 그리고 재밌게도 알렉사가 등장한 2014년 이후에는 미국에서 자녀의 이름을 더 이상 알렉사를 짓지 않습니다. 아마도 매일 날씨를 알려달라도 재촉당하는 비서의 이름을 자녀의 이름으로 정하고 싶지 않아서겠죠. 실제로 2015년에만 해도 알렉사라는 이름은 32번째로 인기 있는 이름이었지만 2019년에는 139위가 되어버렸습니다. (-211-)
이듬해 공개된 GPT-3 는 더욱 놀라웠습니다. 인간을 위협할 정도라고 했던 GPT-2 보다 100배나 더 큰 모델이었거든요. GPT-3 가 학습한 원본 데이터는 무려 45TB 에 달합니다. 이 엄청난 데이터에서 잘못된 데이터를 추리고 추려서 알짜배기만 정제한 것만 해도 570GB 에 달했고,이를 모두 학습에 이용했습니다. (-322-)
2013년에 나온 워드투백은 언어 이해 모델입니다. 그리고 2018년에 나온 비트 또한 언어 이해 모델이죠. 특정 단어를 가려놓고 들어갈 단어를 맞추도록 하는 것은 언어를 이해하려는 모델이 쓰는 방식입니다.버트는 워드투백과 마찬가지로 문장의 의미를 벡터로 잘 표현하기 위해 엄청나게 많은 문장을 학습하죠. (-331-)
인공지능, 알파고, 자율주행, 검색엔진, 스마트 스피커, 기계번역, 챗봇,내비게이션, 추천 알고리즘이 소개되고 있으며, 아홉개의 인프라는 불가능했던 일들을 가능함으로, 인간의 삶을 변화시키고 있다. 그 과정에서 새로운 가치를 만들어 내고, 변화의 주역이 되었다. Ai는 인간의 한계를 극복했고, 시간의 한계를 극복하기 위한 기술적 변화를 완성해 나가고 있었다. 추구하는 바대로 살아가는 것, 빅데이터가 딥러닝과 융합하면, 기술으 확보해 불가능을 가능으로 전환하게 된다.
인간이 직접 두 손으로 두 발로, 운전해 왔던 일들을 자율주행자동차가 자율적으로 움직일 수 있고, 인간의 말을 명령어로 바꿔 나갈 수 있는 조건이 완성된다. 인공지능은 인간의 눈과 귀로, 언어와 초감, 시각과 청각을 모방한다. 물론 그동안 인간에 의존하였던 번역을 기계 스스로 자연어 번역을 할 수 있도록 언어 번역의 한계를 극복했다. 완벽함과 완벽하지 않음의 경계를 허물었으며, 웹을 활용함 데이터 수집과 구조화, 데이터 생성원리에 대해 인간이 가진 한계를 찾아내고 있다. 우리의 언어의 불완전한 구조를 인간의 인식과 자각으로 쉽게 맥락에 따라서 풀어냈다면,인간이 직접 운전하였던 주행기술조차 기계의 자율 주해이 가능하게 된다. 빅데이터를 활용하게 되면서, 구글 검색최적화가 가능해졌고, 각각에 최적화된 알고리즘, 신경망 기술이 완성될 수 있게 된다. 그리고 이러한 자율주행자동차 운행이 가능하려면, 변화와 혁신의 주요 기술이 우선되어야 한다.
전체 내용을 보시려면 ISO 국제인증전문기관 : 네이버카페(naver.com) 사이트 를 방문하시면 됩니다.