[전자책] 업어 키운 여포 10 (완결) 업어 키운 여포 10
유수流水 / KW북스 / 2020년 4월
평점 :
장바구니담기


짧다면 짧고 길다면 길었던 스토리가 끝나고나니 소설속 등장인물들도 전장에서 보냈던 세월이 어느덧 2,30년이 훌쩍 지났다. 주인공 위속을 비롯해 다들 그동안 힘에 겨웠는지 이제는 전쟁터를 떠나 남은 여생을 편히 보내길 바란다. 문득 우리네 인생도 이와 비슷하게 흘러가는거 같다는 생각이 든다

댓글(0) 먼댓글(0) 좋아요(15)
좋아요
공유하기 북마크하기찜하기 thankstoThanksTo
 
 
 

처음 보는 용어들도 나오는데 배경지식을 배워간다는 느낌으로 읽어보련다.

코덱스는 자연어 기반 코드 생성 모델이다. 언어 모델이 소통을 위한 언어 생성이라고 한다면 코덱스는 코드생성 모델이다. 코드는 자연언어가 아닌 프로그램 언어이다. 자연어든 프로그램 언어든 무엇이든 생성할 수 있는 인간과 같은 지식을 가지게 될 것이다.

생성 AI는 머신러닝 알고리즘을 활용하여  기계가 학습데이터를 기반으로 텍스트, 이미지,
오디오, 비디오 콘텐츠와 같은 새로운 인공 콘텐츠를 만드는 기술이다. 좀더 자세히 말하자면 사용자가 생성 AI에게 어떤 것을 만들어달라는 요구를 함에 따라서 결과를 만들어 내는데,
AI가 학습에 활용한 데이터를 기반으로 출력을 만들어 내고 있다.

특히 초거대 언어모델의 확산은 ‘트랜스포머‘라는 모델 덕분이다.
트랜스포머는 수학적 기법을 이용해서 멀리 떨어진 데이터끼리의 상관관계를 감지하는 방식이다. 

현재 AI 분야에 주로 사용되는 반도체는 그래픽 처리장치(GPU)이다. GPU는 본래 그래픽 처리 속도를 높이기 위해 만들어진 프로세서지만, 데이터를 한 번에 대량으로 처리하는 ‘병렬처리방식‘ 을 취하고 있다는 특성 때문에 AI분야에서 각광을 받고 있다.

특히 신경망 처리장치(NPU)는 인간의 신경망과 같은 구조로 빅데이터를 처리하는 프로세서를 말한다.  GPU는 애초에 AI 처리를 위해 만들어진 프로세서가 아니기 때문에 GPU로 생성AI나 초거대AI 처리를 하기 위해서는 코어 수를 늘려야하는데, 그 과정에서 가격이 높아지고전력 소모가 커진다. 또한 프로그램을 돌리기에도 무겁고  효율성이 낮아지는 것이다.

또한 생성AI가 역할을 하기 위해서는 NPU 이외에 대용량 고속 메모리가 필요하다. 거대 AI모델을 저장하기  위해서는 지금의 메모리와 같은 구조나 크기로는 감당할 수 없기 때문이다. 인간의 뇌는 아날로그 형식으로 데이터를 저장하고 추론하는데 반해,  컴퓨터는 반도체라는 형식으로 구성되어 있다.  거대 생성AI모델과 관련된 응용시장이 커질수록  결국 프로세서와 메모리의 해결이 반드시 필요할 것으로 예상된다.


댓글(0) 먼댓글(0) 좋아요(8)
좋아요
공유하기 북마크하기찜하기 thankstoThanksTo
 
 
 

게임의 내실도 중요하지만, 일단 포장지가 예뻐야 이게 어떤 맛인지 시식이라도 해볼 거 아닌가.

"그래, 언제나 성공할 순 없는 거잖아.
실패할 때도 있는 법이지."


댓글(0) 먼댓글(0) 좋아요(7)
좋아요
공유하기 북마크하기찜하기 thankstoThanksTo
 
 
 
[전자책] 업어 키운 여포 09 업어 키운 여포 9
유수流水 / KW북스 / 2020년 4월
평점 :
장바구니담기


9권에서는 여포군이 남만의 왕 맹획을 정벌하러 가는 내용이 나온다. 실제 삼국지에서는 제갈량이 맹획을 7번 잡았다가 놓아줬다는 이야기가 있는데, 이 소설에선 제갈량이 아니라 여포군의 총군사인 위속이 제갈량과 비슷한 역할로 나온다. 실제 삼국지와 비교하면서 읽으니 좀 더 흥미롭게 느껴졌다.

댓글(2) 먼댓글(0) 좋아요(18)
좋아요
공유하기 북마크하기찜하기 thankstoThanksTo
 
 
레삭매냐 2023-05-01 14:55   좋아요 1 | 댓글달기 | URL
여포가 주인공인 삼국지의
다른 판본이라... 흥미롭네요.

게다가 남만의 우두머리 맹획
을 여포가 정벌한다라 -
흥미로운 서사라고 생각합니다.

즐라탄이즐라탄탄 2023-05-01 16:22   좋아요 1 | URL
예 저도 읽으면서 흥미롭게 느꼈습니다. 읽다보면 실제 삼국지에 나왔던 사건들이 기억에 어렴풋이 떠오르는데 여기서는 그 사건을 실행하는 주체가 여포와 여포의 부하들로 되어있습니다. 재미삼아 부담없이 읽을 수 있어서 좋았습니다. 댓글 감사합니다.
 

챗GPT에 대한 막연한 관심이 있던 차에 이 책을 읽을수 있는 기회가 생겨서 읽어보게 되었습니다.

챗GPT 누구에게는 ‘기회‘가 되고 누구에게는 ‘놓친 기회‘가 된다.

딥러닝은 여러 계층의 신경망을 사용하는 일종의 기계학습 알고리즘인데, 기존보다 훨씬 더 복잡하고 대량의 패턴(이미지, 음성)등을 빠르게 학습하며 훨씬 좋은 예측 성능을 가지게 되었다.

유발하라리는 ‘사피엔스‘라는 책에서 호모 사피엔스가 세상을 정복한 성공 비결은 인간의 언어혁명이라고 설명한다.

컴퓨터라는 기계가 만들어질 때부터 인간은 기계와의 쉽고 편한 소통을 위한 도구들을 설계해왔다.  키보드, 마우스, 프로그래밍, 언어 등 모든 것들의 존재 이유는 소통이다.

이제 인간과 기계의 공존 시대가 오고 있다는 사실을  인정하고 거부하지 말기를 바란다. 돌이킬 수 없고 비가역적이다.

나를 위한 지식과 정보의 신이 등장했다

챗GPT는 ‘오픈AI‘ 라는 회사가 만든
대화형 인공지능 서비스이다.

그냥 프로그램에 접속하고 쉽게 가입해서 질문을 하면 방대한 데이터를 토대로 AI가 바로 대답을 해주는 것이다.

챗GPT를 처음 써본 사람들은 그 자연스러운 소통 능력에  매우 놀라워한다.

생성형 언어 모델(Generative Language Model)이 바로 챗GPT의 기술이라고 할 수 있다.

하지만 AI가 인터넷상의 수많은 문장들을 학습하다 보면 "1+1은 무엇인가?"라는 문장의 뒤에는 "답은 2입니다"라는 문장이 나오는 경우가 확률적으로 가장많이 나올 것이다. GPT3는 이 같은 방식으로 작동하는 인공지능이다.  결국 수학을 아는 것이 아니라 언어적 확률을 아는 거대 언어 모델이기 때문이다.

또, 소통이라는 것이 한두 번 주고받는 것이 아니라 서로 주고받는 것이 반복되는 대화(Conversation)의 경우에는 나의 잘못을 인정하거나 상대의 잘못을 지적하는 경우가 발생한다. 챗GPT가 사용한 RLHF는 사람의 피드백을 반영해서 가장 사람이 말하는 것 같은 결과물에 가점을 줘서  학습을 시켰다.  당연히 그 결과물은 더 사람 같아졌다. 사람의 피드백을 반영했다는 것은 결국 사람이 참여해서 학습을 시켰다는 것이다.

멀티 모달multi-modal이란 이미지,
텍스트, 동영상, 음성 등 다양한 비정형 형태의 데이터가 함께 조합되어 있는 정보 또는 이를 처리하는 모델을 말한다. 검색에서도 키워드를 입력하면 문서, 텍스트, 그림, 동영상들이 검색되어 나오는 것은 바로 멀티 모달검색 기능 기술이 보편화되었기 때문이다.


댓글(0) 먼댓글(0) 좋아요(9)
좋아요
공유하기 북마크하기찜하기 thankstoThanksTo