인공지능과 뇌는 어떻게 생각하는가 - 지극히 주관적인, 그래서 객관적인 생각의 탄생
이상완 지음 / 솔출판사 / 2022년 9월
평점 :
장바구니담기


다 읽었지만 일단 어렵다. 뇌과학, 인공지능 하나만 설명해도 어려운데 둘 다를 설명하고 둘의 관계까지 설명한 책이니 얼마나 어려운 책이겠는가? 그래서 곁에 두고 자주는 아니더라도 가끔 생각날 때 한 번씩 읽어봐야 할 책이다. 몇 년 전 그저 치기에 AI 코딩을 하면서 원리는 몰라도 라이브러리만 잘 쓰면 된다고 말한 적이 있는데 역시 아니었다. 인공지능의 연구자들은 나타난 문제에 대한 해결을 위해, 보다 좋은 성능을 발휘하는 모델을 위해 얼마나 열심히, 치열하게 연구하고 공부하고 고민했는지가 이 책을 통해 배울 수 있었다. 인공지능은 인간의 뇌를 따라배우고 인간의 뇌를 닮고 싶어서 당연히 같다고 생각했는데 첫 시작부터 작가는 인공지능과 뇌는 같지 않고 전혀 다르다는 주장과 함께 시작해서 좀 충격을 받았다. 하지만 이 책을 다 읽고 나서도 나는 어떻게 같고 다른지를 다 앍지 못한다. 그래서 더더욱 심도 있는 공부가 필요해 보이고 이 책을 곁에 두어야 할 이유이기도 하다.
저자는 뇌와 인공지능의 작동 원리 및 연구 분야에서 아래의 7가지 질문을 풀어서 답을 찾아나가는 과정의 역사라고 정리하고 있습니다.
무한한 세상을 유한한 공간으로 담는 방법은 무엇일까?
현재의 성공이 왜 미래에는 실패하게 되는 것일까?
민감하면서 둔감한 해결책의 딜레마를 어떻게 풀 것인가?
주관적이면서도 객관적인 답은 무엇인가?
과거를 예측하고 미래를 회상할 수 있을까?
시간을 접어 공간으로 만들면 어떨까?
미래를 내다보며 과거를 바꾸는 방법은?
이러한 질문에 대해 인공지능 학자들이 "새로운 개념 등장 -> 효율성 향상 -> 다양한 분야에 적용 -> 개념의 확장 -> 새로운 한계 발견 -> 또 새로운 개념의 등장(P183)"의 연속적인 과정을 통해 위 7가지 과제를 풀어나가고 있고 현재에도 연구실에서 땀과 눈물을 흘려가면서 발견과 증명을 해나가고 있음을 저자는 이 책의 큰 틀에서 꾸준히 강조하고 있습니다.
(P16) 필자는 KAIST 학생 시절 로봇을 매개체로 사람과 협업하는 인공지능을 공부하던 중, 우리가 최선이라고 생각하는 것이 과연 인공지능에게도 최선인가?라는 의구심을 가지게 되었습니다.
(P53) 결과적으로 다양성을 포용하기 위한 진정한 전략은 시행착오, 즉 실수로부터 배우는 것에 있습니다. 실수를 통해 생각종이를 고쳐 접는 전략은 이후 인공지능이 급격히 성장하는 원동력이 됩니다.
(P94) 인간의 뇌가 가진 무한한 잠재력에 대해 말해봅시다. 비록 인간은 종종 단순화에 어려움을 겪고 올바른 결정을 내리지 못할 때도 있지만, 여러분의 하드웨어인 뇌라는 시스템은 인공지능 시스템에 비해 적어도 몇만 배 이상의 에너지 효율성으로 태생적으로 단순함을 추구합니다. 이를 통해 현재의 성공과 미래의 성공을 이을 수 있고, 비편향적 다양성을 추구하며, 이러한 최소 비용으로 최대 효과를 얻을 수 있는 놀라운 능력을 발휘합니다. 어쩌면 인간의 뇌에 숨겨진 90%의 잠재력은 여기에 있는 것이 아닐까요?
(P142) 무언가를 이해하는 과정을 '개념의 추상화'라 한다면, 그것을 표현해내는 것을 '개념의 구체화'라 합니다.
(P194) 앞서 이야기했던 인공 신경망의 숙제가 '현재 경험으로부터 배운 개념이 미래에도 그대로 적용될 수 있을까?'였다면, 이번 장에서 인공 신경망이 풀어야 할 숙제는 '과거와 현재의 사건에 깔린 본질적 개념을 이해해서 미래를 예측할 수 있을까?'입니다. 이 문제의 핵심은 -과거에 만들어낸 개념을 잊어버리지 않고 마음속 깊이 새기는 것- 바로 기억입니다.
(P315) 결과적으로 메타 강화학습은 모델 프리 학습과 모델 기반 강화학습이라는 카드를 섞는 방식을 스스로 학습하는 알고리즘으로 볼 수 있습니다.

이 책은 일반 독자에게는 어려울 수 있으나 인공지능을 전공하면서 AI에 대해 공부해보고 싶은 독자들에게는 일독을 권해드립니다.

이 포스팅은 업체 제공 도서로 읽고 느낀바를 솔직하게 작성되었습니다.



댓글(0) 먼댓글(0) 좋아요(0)
좋아요
북마크하기찜하기 thankstoThanksTo