박태웅의 AI 강의 2025 - 인공지능의 출현부터 일상으로의 침투까지 우리와 미래를 함께할 새로운 지능의 모든 것
박태웅 지음 / 한빛비즈 / 2024년 9월
평점 :
장바구니담기


인공지능 시대의 변화에 대응하기




책을 선택한 이유



AI는 조용하게 세상을 바꾸고 있다.


챗GPT는 질문을 이해하고, 적절하고 수준 높은 답변을 제공하며,

생성형 AI는 교육, 예술, 방송, 의료, 법조 등 다양한 분야에서

급속도로 영역을 확장하고 있다.


인공지능의 놀라운 위력에 대해 알아보기 위해

"박태웅의 AI강의 2025"를 선택한다.





"박태웅의 AI강의 2025"는


1강 걷잡을 수 없는 변화의 물결: 인공지능, 우리의 일과 삶에 급격히 파고들다

2강 모두를 놀라게 만든 거대언어모델, LLM의 등장: 챗GPT로 알아보는 인공지능의 정체

3강 인공지능이 인간보다 똑똑해질 수 있을까?: 생성형 AI의 놀라운 능력과 최근의 기술 흐름

4강 열려버린 판도라의 상자: AI의 확산, 그리고 필연적으로 도래할 충격들

5강 신뢰할 수 있는 인공지능, 어떻게 구축할까?: 세계 각국의 윤리 원칙과 법제화 노력

6강 우리 사회는 어떻게 대응해야 하는가?: '눈 떠보니 후진국'이 되지 않기 위한 제언들


로 구성되었다.




1강 걷잡을 수 없는 변화의 물결: 인공지능, 우리의 일과 삶에 급격히 파고들다 에서는


미디어는 구체적인 변화의 방향을 지시한다.

변화의 속도가 갈수록 빨라지고 있다.


인공지능은 운영체제의 지위를 넘보고 있다.

소프트웨어 들이 AI와 연동하는 형태로 작동하게 될 것이다.


정보를 찾는 방식이 계층적 접근, 키워드 매칭에서,

AI의 발전과 함께 맥락 인터페이스 가 나타나고 있다.


AI가 질문의 맥락을 공유하면서, 그래픽 유저 인터페이스 가 쇠퇴할 것이다.



인공지능은 무한한 기억력을 가진 똑똑한 컨설턴트 다.

AI는 파트너로서의 도구다.


멀티모달 은 다른 방식으로 표현된 정보를 함께 처리하거나 활용한다.

멀티모달 은 엄청난 양의 학습 데이터 를 생성하면서 AI는 더 똑똑해진다.


소형언어모델, SLM은 기존 AI보다 작은 매개변수를 갖고 있지만,

학습 데이터를 더 많이 넣으면서, 뛰어난 성능을 가진다.


클라우드에 개인정보를 올리지 않고, 내 기기에서만

작동하는 인공지능은 에이전트가 가능해진다.


인간형 로봇이 AI와 결합하면서, 빠르게 발전한다.

몸을 가진 인공지능은 다양한 작업을 완료하는 데,

필요한 단계를 기획할 수 있게 된다.




2강 모두를 놀라게 만든 거대언어모델, LLM의 등장: 챗GPT로 알아보는 인공지능의 정체 에서는


CPU는 순차 계산을 하고, GPU는 병렬 계산을 한다.


몬테카를로 알고리듬 은 인공지능이 더하기, 빼기의

단순 작업을 엄청난 속도로 하는 것을 잘 보여준다.


딥러닝 모델 의 발달과 하드웨어 의 엄청난 발전은

잠재된 패턴 들을 찾아낼 수 있다.


챗GPT는 역사상 가장 빠른 속도록 사용자를 모은 서비스 다.

사전 학습한 거대 언어 모델은 다른 인공지능의 기반이 된다.


인공지능은 규칙적이고 닫힌 세계에서 위력을 발휘하지만,

확률이 필요하지 않은 분야에서는 어처구니없이 취약하다.


AI는 사실을 찾는데 부적합하며, 할루시네이션 을 피할 수 없다.


프롬프트 인젝션 공격은 교묘한 요구로,

인공지능이 규칙 밖의 행동을 하도록 조작한다.


AI의 폭주가 나타나지만, AI는 블랙박스며,

작동 이유를 설명할 수 없어 무섭다.


GPT-4는 느닷없이 나타나는 능력이 강해졌고,

이미지를 보고 이해한다.




3강 인공지능이 인간보다 똑똑해질 수 있을까?: 생성형 AI의 놀라운 능력과 최근의 기술 흐름 에서는


챗GPT의 느닷없이 나타나는 능력은 사람들을 열광하게 한다.


3차원 공간에 대한 이해, 단계적 추론을 하는 생각의 연결고리 를 갖는다.

생각의 연결고리는 일정 크기 이상의 거대언어모델에만 나타난다.


언어를 통한 의사소통과 사고 행위는 서로 다른 일이다.


언어를 이해하고 사용하는 기능적 언어 능력과

언어의 규칙과 패턴을 이해하는 형식적 언어 능력은 구분된다.


거대언어모델 은 인간 사고에 대해서는 불완전한 모델이다.


제프리 힌턴 교수는 AI가 새로운 기술에 대비하지 않은

인간을 조작하거나 죽이는 방법을 알아낼 것을 우려한다.


목표를 설정하기 위해 AI가 중간 목표를 정할 수 있다면,

아주 위험해질 수 있다.



챗GPT는 자연어로 기계와 대화할 수 있는 최초의 자연어 인터페이스 다.


프로그램 간 인터페이스 API를 이용해, 챗GPT는 프로그램에

일을 시킨 후 결과를 사람에게 전달한다.


컴포넌트 를 이용하면 쉽게 거대언어모델 기반 챗봇 을 만들 수 있다.

AI 오픈소스 움직임, AI 소형화의 흐름도 거세다.


다중 에이전트 협업 프로세스 는 적은 매개변수를 가지고도

더 나은 성능을 낼 수 있다.



전문가 조합은 인공지능을 여러 전문가들로 구성된 모델로 만드는 것이다.

Top-K 할당은 전문가들의 결과를 조합하게 된다.


전문가 조합은 단일 모델보다 더 나은 성능을 가질 수 있으며,

게이트웨이 는 결과를 효과적으로 조합하므로,

빠른 추론 속도와 같은 매개변수로 더 높은 성능을 달성한다.


에이전트 는 작업을 수행하는 작은 프로세스 다.


에이전트 들이 상호작용하며, 계층적 구조를 가지면서,

복잡한 인지 과정을 형성한다.


사용자가 거대 AI에 일을 요청하게 되면,

플러그인 서비스 사용자 수가 줄어들 위험이 있다.


서비스, API 업체들은 거대언어모델 의 도구로 대체될 위험에 처한다.




4강 열려버린 판도라의 상자: AI의 확산, 그리고 필연적으로 도래할 충격들 에서는


Open AI의 전현직 직원과 AI 회사 사람들은

비방금지 원칙 등을 촉구하는 성명서를 발표한다.


오픈AI는 사실상 클로즈드 AI라는 비판을 받는다.

마이크로소프트 는 AI 윤리팀 실행 직원을 모두 해고한다.


인공지능 과학자들은 AI에 대한 우려를 공개적으로 경고한다.


재귀적 자기 개선은 인공지능이 스스로 자신의 코드를 고쳐서,

성능을 더 높이면서 인간의 통제를 벗어날 위험성을 가진다.


생성 모델은 훈련을 거듭할수록 원본 데이터의 분포를 잃어간다.


통계적 오차, 표현력 오차, 근사 오차가 쌓이면서,

AI 모델 붕괴 현상이 일어난다.


웹은 인공지능이 생성한 저품질 콘텐츠로 넘쳐나기 시작한다.

소프트웨어 개발자의 공동체 정신이 무너지고 있다.


인공지능은 오리지널 학습 데이터를 찾는 데 어려움을 겪게 될 것이며,

AI는 오리지널을 무너뜨리고 있다.


인공지능은 잠재된 패턴을 찾아내는 일을 하며,

성별, 인종 등을 데이터에 담지 않아도,

패턴에 따라 차별이 담긴 결과를 내놓는다.



맥락 무결성은 개인정보가 원래 생성된 맥락을 벗어나

공개되지 않아야 한다는 개인정보 보호의 기본원칙이다.


정확한 학습해제는 학습 데이터 를 아주 여러개의 조각으로

나눈 다음 독립적으로 모델 을 학습시킨다.



5강 신뢰할 수 있는 인공지능, 어떻게 구축할까?: 세계 각국의 윤리 원칙과 법제화 노력 에서는


녹서가 사회적 질문을 제기하면,

백서는 공론화를 통해 질문에 대한 답을 보고한다.

독일 정부의 산업 4.0, 노동 4.0 백서로 소개한다.


하버드대학 인공지능 준칙 백서,

아실로마 AI 원칙,


로마 교황청 인공지능 윤리 요청 성명서,

유럽연합의 인공지능법 공론화 과정,


미국 상원에 계류된 알고리듬 책무법안 2022,


G7 히로시마 프로세스, 미국 백악관 인공지능 행정명령,

첨단 인공지능의 안정성에 관한 국제과학보고서,

MIT 인공지능 위험 저장소, 캘리포니아에서 추진하는 SB 1047

등 AI 규제 움직임,


인공지능을 독점적으로 만드는 실리콘밸리 슈퍼 엘리트

세력의 막강한 영향력과 윤리 의식에 대한 우려,


장기주의, 효과적 이타주의, 효과적 가속주의 등

거대 인공지능 모델 개발자의 사상을 알아본다.




6강 우리 사회는 어떻게 대응해야 하는가?: '눈 떠보니 후진국'이 되지 않기 위한 제언들 에서는


한국에서 논의 중인 인공지능책임법안은

믿을 수 있는 인공지능에 관한 기준들의

정의를 제대로 내리지 않는다.


공론화로 다양한 이해관계자들의 집단 지성을 모으고,

각계각층의 이해관계와, 국제적 연대가 필요하다고 주장한다.


최초로 국가 AI 전략을 수립한 범 캐나다 인공지능 전략,

미국 국가 인공지능 연구자원 프로젝트를 소개한다.


정부의 정책은 투명하고 예측 가능해야 한다.

정부가 메타버스 관련 자격증을 부추겼지만,

메타버스, 인공지능 자격증을 요구하는 IT 기업은 없다.


유행처럼 정책을 펴고 예산을 쓰지만,

오늘 펼친 정책이 내일이면 없어진다.


한국 정부가 AI 정책에서 해야 할 일에 대해 제언한다.



"박태웅의 AI강의 2025"는

인공지능 가져온 변화, 거대언어모델의 위력,

생성형 AI 기술 흐름, AI가 가져올 사회적 충격,

인공지능 윤리 문제, 한국의 후진적 과학정책을 다룬다.



인공지능은 정보를 찾는 방식을 맥락 인터페이스 로 바꾸며,

AI와 소프트웨어 들이 연동하는 형태로 작동하게 된다.


멀티모달 은 다른 방식으로 표현된 정보를 함께 처리하거나 활용하면서,

AI는 엄청난 양의 학습 데이터 를 생성하면서 똑똑해진다.


소형언어모델, SLM은 작지만 뛰어난 성능을 가지며,

내 기기에서만 작동하는 인공지능 에이전트가 가능해진다.


인간형 로봇이 AI와 결합하면서, 인공지능은 몸을 가진다.



딥러닝 모델 의 발달과 하드웨어 의 엄청난 발전은

잠재된 패턴 들을 찾아낼 수 있다.


사전 학습한 거대 언어 모델은 다른 인공지능의 기반이 된다.


인공지능은 규칙적이고 닫힌 세계에서 위력을 발휘하지만,

확률이 필요하지 않은 분야에서는 어처구니없이 취약하다.


AI는 사실을 찾는데 부적합하며, 할루시네이션 을 피할 수 없다.


AI의 폭주가 나타나지만, 폭주 이유를 설명할 수 없다.



챗GPT의 느닷없이 나타나는 능력은

3차원 공간에 대한 이해, 단계적 추론을 하는 생각의 연결고리 를 갖는다.



언어를 이해하고 사용하는 기능적 언어 능력과

언어의 규칙과 패턴을 이해하는 형식적 언어 능력은 구분된다.


거대언어모델 은 인간 사고에 대해서는 불완전한 모델이다.


목표를 설정하기 위해 AI가 중간 목표를 정할 수 있다면,

아주 위험해질 수 있다.



챗GPT는 자연어로 기계와 대화할 수 있는 최초의 자연어 인터페이스 다.


챗GPT는 프로그램에 일을 시킨 후 결과를 사람에게 전달할 수 있다.

다중 에이전트 협업 프로세스 는 적은 매개변수를 가지고도

더 나은 성능을 낼 수 있다.


에이전트 는 작업을 수행하는 작은 프로세스 다.


에이전트 들이 상호작용하며, 계층적 구조를 가지면서,

복잡한 인지 과정을 형성한다.


사용자가 거대 AI에 일을 요청하게 되면,

서비스, API 업체들은 거대언어모델 의 도구로 대체될 위험에 처한다.



인공지능 과학자들은 AI에 대한 우려를 공개적으로 경고한다.


재귀적 자기 개선은 인공지능이 스스로 자신의 코드를 고쳐서,

성능을 더 높이면서 인간의 통제를 벗어날 위험성을 가진다.


생성 모델은 훈련을 거듭할수록, AI 모델 붕괴 현상이 일어난다.


인공지능은 잠재된 패턴을 찾아내는 일을 하며,

패턴에 따라 차별이 담긴 결과를 내놓는다.



독일 정부의 산업 4.0, 노동 4.0 백서,

하버드대학 인공지능 준칙 백서,

아실로마 AI 원칙,


로마 교황청 인공지능 윤리 요청 성명서,

유럽연합의 인공지능법, 미국 알고리듬 책무법안 2022,


G7 히로시마 프로세스, 미국 백악관 인공지능 행정명령,

첨단 인공지능의 안정성에 관한 국제과학보고서,

MIT 인공지능 위험 저장소, 캘리포니아 SB 1047,


등 세계 각국의 AI 규제 움직임을 소개한다.



한국 인공지능책임법안의 문제점,

정부 정책의 문제를 지적하고, 개선책을 제언한다.




인공지능이 가져올 놀라운 변화를 모르는 사람은 없지만,

인공지능에 대해 제대로 아는 사람은 드물다.


인공지능을 어떻게 활용하느냐에 따라,

유용한 도구가 될 수도, 나락으로 떨어뜨리는 악몽이 될 수도 있다.


기술진보가 가져오는 변화의 속도는 너무나 빠르다.


인공지능에 대해 제대로 알고, 대처해야 하지 않으면,

인공지능 시대에 살아갈 수 없다.


세계 주요 기업들은 치열한 인공지능 개발 각축전을 벌이며,

각국 정부는 인공지능이 가져올 위험성에 촉각을 세우고 있다.


한국도 AI가 가져올 변화를 이해하고,

AI 경쟁에 적극적으로 나서야 할 것이다.



AI는 악용될 경우 인류에 큰 위협을 가져다 줄 존재다.


서방 각국은 AI 위험성에 관심을 가지고 규제책을 마련하고 있으나,

과도한 규제는 AI 발전을 해칠 수 있다.


한국은 AI 개발을 장려하고, 적극적으로 대응하면서,

AI 시대에 대응해야 국가 경쟁력을 확보할 수 있을 것이다.



AI를 바르게 이해하고, 적극적으로 대응하면서,

AI 시대를 선도하지 않으면 한국의 미래는 어둡다.



"박태웅의 AI강의 2025"는 AI에 대한 바른 이해를 통해,

AI의 현재 상황을 이해하고, 미래를 준비할 수 있도록 돕는다.



한빛비즈 와 컬처블룸 서평단에서 "박태웅의 AI강의 2025"를 증정해주셨다.

감사드린다.




#박태웅의AI강의2025 #한빛비즈 #서평 #박태웅 #컬처블룸 #컬처블룸서평단​




​'이 리뷰는 컬처블룸을 통해 출판사에서 도서를 제공 받아, 직접 읽고 작성한 리뷰입니다.'


댓글(0) 먼댓글(0) 좋아요(2)
좋아요
북마크하기찜하기 thankstoThanksTo