2019년, 마이크로소프트는 챗GPT를 만든 회사인 Open AI에 10억달러를 투자했습니다.
그리고 2022년 11월 말 Open AI는 챗GPT3.5를 출시했고
마이크로소프트는 2023년 1월 말 100억 달러의 추가 투자를 발표했습니다.
이 책의 저자 리드 호프먼은 마이크로소프트의 이사입니다. 그러기에 그는 챗GPT출시 전부터 생성형AI를 이용해 볼 기회가 많았고, 또 그는 회의를 하느라 바쁜 와중에도 시간이 날때마다 챗GPT에 프롬프트를 작성하는 것을 즐긴다고 합니다.
챗GPT에 관련된 책들을 낸 사람들 중에 호프먼만큼 챗GPT에 다양한 프롬프트를 작성해본 사람이 있을까 란 생각이 들기도 합니다.
초기의 챗GPT는 프롬프트에 입력한 설정이 전형적인 틀에서 조금이라도 벗어나면 질문을 잘 이해하지 못하고 대답을 잘 하지 못했다고 합니다.
예를들어 송장확인을 위해 바코드를 찍는 업무를 하는사람이 있다고 칩시다. 지나가는 동료가 바코드를 찍는 것을 보고 "철수씨, 편의점 차렸어? "라고 농담을 건넵니다. 살짝 웃고 가벼운 대화를 한 뒤 각자 업무를 보러 갑니다. 이런류의 질문을 이전 버전의 챗GPT에게 하면 챗GPT는 이해하지 못하고 엉뚱한 답을 했습니다.
하지만 챗GPT4는 다릅니다. 질문자가 농담을하고 있다는 것을 가정한 답을을 내놓으면서도 사실적인 답변또한 같이 합니다. 다방면의 학습을 통해 GPT4가 사람만이 읽을 수 있었던 맥락을 어느정도 읽을 수 있게된 것입니다. 이는 매우 놀라운 성과입니다.
얼마 안있어 챗GPT가 다양한 분야에서 다양한 방식으로 사람들의 업무생산성을 높여주고, 일하는데 있어 필수적인 도구가 될 것임은 자명해보입니다.
챗GPT4는 공개된 인터넷에서 얻은 정보들을 바탕으로 개별적인 의미 단위들 사이에 가장 흔히 나타나는 관계를 인식하도록 프로그래밍되었다고 합니다. 그래서 저자는 챗GPT4는 언어의 흐름을 예측한다고 말하며, 사용자의 프롬프트에 문맥상 적절한 답을 할 수 있다고 합니다. 하지만 문맥상 적절해 보일 수도 있지만 오류가 섞인 답을 할 수도 있기에 이 점은 유의해야 합니다.
또한 챗GPT4가 언어의 흐름을 읽는다고는 하지만 이는 프로그래밍에 의해 학습된 것이고, 상식적인 추리를 하거나 추론을 할 수 있는 능력이 아직은 없다고 합니다. 인터넷에서 학습하는 정보들에 대해 사실적인 평가나 윤리적인 구분을 하지 않기에 이 점도 보완되어야 할 부분입니다. 개발자가 조정을 하여 부정적인 아웃풋을 제한할 수는 있지만 완전히 없애지는 못한다고 합니다.