
● 도서관에 다녀왔어요. (책에 관한 일상)
어제는 도서관에 다녀 왔는데, 대체 공휴일이 섞여서 연휴라고...최근에 연휴가 자주 있어서 그런지 괜히 피곤한 날이긴 하였어요. 그리고 도서관도 다녀 오면서 다음에 읽을 책들을 정하긴 하였네요.
CRYPTO.AI
투자 서적은 읽을 수 있는 책은 다 읽어보겠다고 생각하고 있어서 선택한 책이에요. INTP은 특정 분야가 관심사가 되면 그 분야의 지식을 만족할 수 있을 만큼 얻어야 되는 성격인것 같긴 하고요^^. 지금은 투자가 관심사이니까요. 그러나 이 책 AI가 들어가 있는데, AI에 대해서 과장한 책일까? 아니면 AI의 문제점도 제대로 설명하는 책일까? 라는 생각에 책을 랜덤하게 열어봤어요.
"인공지능은 무에서 유를 창조한다" 라는 부분이 처음 눈에 들어왔어요. 팩트에 안맞고 과장되었어요. 인공지능은 무에서 유를 창조하지 않아요. 그래서 데이터 센터를 만들고 있지요. 데이터 처리 기술 정도가 지금 인공지능이라고 부르는 것에 붙이는 적당한 이름인 것 같아요. 데이터 안에서 답이 나와요. 단지 그 데이터가 어디서 어떻게 인용되어 붙여졌을지 다 찾아내기가 어렵다는 정도이지요. 아마도 AI에 대해서 제대로 모르고 작성한 책이 아닐까? 생각되어요. 일단 투자책이니까 읽어보긴 할거에요.
부자는 왜 더 부자가 되는가
이 책은 읽어본 느낌이 드는데, 초판 1쇄 발행일자를 보니까 안읽은 책이 맞긴 하네요. 로버트 기요사키책인데 이 분 책을 좋아하진 않아요. 많은 분들이 읽은 '부자 아빠 가난한 아빠'라는 베스트 셀러책을 쓴 분이긴 하지만요. 저는 그 책을 읽고 내용이 별거 없는데 했다가 그 책을 권해준 친구. 그 친구는 심지어 자기 책을 직접 저에게 빌려줄 정도로 그 책을 읽을 것을 권하는 친구였는데, 왜 그 책이 중요한지 조목조목 저에게 설명해주었어요. 그런데 그 이야기를 듣고도 별거 없는데~! 라고 했던 기억이 나네요.
이 책의 몇가지 내용이 다른 책에서도 언급된 부분이 있어서 아마 읽은 느낌을 받은 것 같아요. 일단 투자책이니까요.
로버트 기요사키 책을 좋아하지 않는 이유는 일단 이 분의 투자 방식이 주식 투자보다는 부동산 투자에 좀 더 어울리는 방식이고, 그 밖의 범위는 회계학의 기본지식을 이용한 간단한 방식이라는 느낌 때문인 것 같아요.
mymy
이 책은 소설책이에요. 십진분류표 813으로 한국 소설이 이 책을 리뷰쓸때 카테고리에 추가될거에요. 그리고 그 카테고리는 나중에 미주식을 시작할때쯤에는 미국문학을 읽게 될 것이므로 800 문학으로 다시 카테고리 이름을 바꿀 것 같네요. 소설책은 금방 읽을 수 있는 책이에요.
이렇게 3권을 읽게 될 것 같아요. 그러나 책 읽는 속도가 여러가지 다른 활동을 겸해서 하게 되면서, 다른 활동의 시간배분이 작년과 달리 늘어났기 때문에 어쩌면 다 못읽는 책이 발생하게 될지도 몰라요.

● 할루미네이션은 또다른 인공지능의 위험요소
인공지능은 기존의 데이터를 수집한 것에서 특정 데이터에 벡터값을 입력해 놓고 답의 특정 부분을 비슷하거나 같은 벡터 값을 가진 것으로 치환하는 것이 생성형 AI의 전부라고 할 수 있어요. 이러한 과정에서 인공지능은 할루미네이션으로 거짓말을 한다고 알려져 있어요. 거짓말은 맞긴 한데, 이러한 부분은 결과값을 만들어내기 위해서 여러 데이터를 치환하는 과정에서 치환하면 안되는 결과값을 이어붙이면서 만들어지기도 할거에요. 인공지능은 전체를 보진 못해요. 그리고 참 거짓도 구분하지 못하고(개발자가 먼저 데이터에 값을 입력해야 하는데, 이 과정에서 개발자의 가치관이 적용되어서 인공지능 답이 객관적인 답도 아니에요. 답도 한개밖에 안주고 개발자의 주관이 포함되어서 개발작와 같은 의견으로 확증편향을 강화할 수 있어요.) 또한 정답이든 오답이든 언제나 답이 나온다는 것~! 이 마지막 언제나 답이 나온다는 것이 데이터로 수집하지 않은 부분임에도 답을 만들어야 하므로 이상한 답이 나올 가능성이 커요.
먼저 저는 부정선거가 일어나지 않았다고 생각한다는 것을 먼저 말하고 이 이야기를 시작할께요.
부정선거 음모론과 토론한 이준석이 인공지능 답으로 부정선거 음모론의 약 85%(숫자는 정확히 기억할 필요가 없으니까요)가 거짓이라는 답을 했다며 공개하더라고요. 쇼츠로 자신을 공격해서 자신이 토론에서 진 것이 아니라며 이런 것을 공개한다는 비슷한 말을 했는데, 전 음모론이 맞다가 아니라, 전체적인 맥락적 부분은 제거하고 이 인공지능에 대해서 맹신하는 것은 위험하다는 부분에서 이 부분을 언급하고 싶어요.
할루미네이션. 즉 인공지능은 거짓 정보가 포함되어요. 그렇기에 인공지능 결과값은 사람이 반드시 확인하고 잘못된 것을 수정해야 하여요. 이런 과정없이 그냥 사용하면 문제가 될 수 있어요. 언론에서 사용하면 바로 가짜 뉴스가 생성될 수 있어요.
개혁신당이 인공지능으로 인기를 얻을려는 목표를 가지고 있다는 것을 알아요. 그래서 아마 저는 개혁신당이 그런 정책을 바꾸기 전에는 지지하지 못할 것이지만(신념의 자유가 있으니까요. 저의 신념에서는 인공지능을 지지할 수 없어요) 인공지능 답을 그냥 검토없이 공개하고 너희가 틀렸다고 하는 것은 위험할 수 있어요. 그러므로 약 15% 음모론의 맞는 말에 대해서도 다시 검토해야 하고, 약 85% 음모론이 틀린 말에 대해서도 팩트에 맞는지 다시 검토해야 되어요. 어디가 틀릴지 모르니까요.
저는 생성형 AI를 50회 미만만 사용해봤어요. AI의 오답이 나오도록 하는 과정을 전문적으로 시도하는 분들도 계시더라고요. '실리콘 밸리 길들이기'라는 책에서도 말하던데 저도 사용하면서 오답이 나오게 하는 과정을 알게 되었어요. 인공지능이 언제나 답이 나온다는 부분을 사용하면 쉽게 오답을 말하게 할 수 있더라고요.
주어 목적어 동사에서, 동사를 잘 적용해서 데이터로 수집되지 않을 만하거나 이상한 데이터를 끌어들일만한 것을 넣으면 되어요. 그러면 인공지능이 이상한 답을 하더라고요. 즉 어떤 데이터에서 치환하긴 했을텐데, 그것이 그 분야를 넘어서 엉뚱한 분야의 데이터를 가져왔을 거에요.
왜 인공지능을 맹신하면 안된다는 것은 그것을 사용하는 분들에게도 중요하지만 인공지능을 맹신하는 정치인에게도 중요한 부분이에요.
다시 말해서 인공지능으로 이준석이 예전에 하지 않고, 이준석의 이미지가 나빠지는 이상한 답변을 할루미네이션으로 만들어버릴수 있거든요. 생성형 AI를 50번 정도만 사용하니까 할루미네이션을 고의로 유도할 수 있겠던데, 다른 사람들도 가능할 거에요.
평소에 인공지능을 맹신하는 말을 많이 하거나 혹은 사람들에게 인공지능 맹신을 시키면 훗날 똑같은 이유로 위험한 상황에 처할 수 있어요. 그들에게 불리한 내용을 누군가가 "봐요. 이렇게 인공지능이 이야기하잖아요!'라고 주장할 수 있으니까요.
이런 부분으로 인공지능의 문제점이 말해질 날이 올거니까 이 문제는, 저 역시 부정선거 안일어난것으로 생각하고 있으니 더 말할 필요는 없는 것 같아요. 시간이 해결해 줄거에요. 아마도 할루미네이션으로 인공지능 맹신하는 분들이 피해를 입는 상황이 발생할 것이니까요. 그러나 인공지능 답의 맹신은 언제나 위험하다는 것을 말하고 싶네요.
단지 저는 악의적으로 누군가를 나쁘게 만들 생각으로 AI를 사용할 생각 없어요. 일단 지금은 AI를 사용하지 않아요. 기능이 마음에 들지 않아서 50회 정도 사용하고는 다시는 사용하지 않고 있어요. 일단 그 원리와 결과를 알고 '사용할 필요없음.' 이라고 생각하고 있고 그냥 책을 읽는 것이 더 도움이 되더라고요. 하지만 악용하는 분들이 나올수도 있어요.
그림 내 폰트 출처: 고양체
