● 2026 ~ 2027 대한민국 산업지도의 IT 파트까지 읽었어요. (독서와 관한 일상)


더 빨리 읽을수도 있었지만, 약간 시간이 지체되면서 현재 IT 파트까지 읽었어요. 내일중에 다 읽지 않을까? 싶어요.


그런데 IT 파트까지 읽으면서 AI와 관련된 종목들의 대부분을 지나쳤어요. 물론 책에서 AI와 관련되지 않은 종목들까지도 AI를 언급하는 경우가 많았지만요.


이 책에서 근거가 틀린 곳은 하나 발견되었어요. 대부분이 인용이었고 인용한 이후에 자신의 주장을 덧붙이지 않아서 이런 인용이 잘못되었다고 말할 수는 없지만, 저자의 주장에서 ai에 대해서 팩트가 틀린 곳이 있었어요.


창작물의 자동생성이라는 부분이 틀렸는데 지금 인공지능은 창작하지 못해요. 창작물의 자동생성이 아니라 기존의 인간이 만들어놓은 창작물의 벡터값을 입력하고 그 벡터값이 비슷한 데이터들간에 치환하는 것이 현재 생성형 인공지능이 하는 것의 전부에요. 이곳은 잘못된 부분이에요. 하나만 발견되네요.


이 점을 인터넷 등에서 간혹 말하면 사람도 그렇게 한다며 주장하는 분들은 간혹 만나는데, 사람은 초상화나 정물화에서 사물을 그대로 묘사하다가 인상주의, 초현실주의 같은 화풍을 스스로 만드는 창의성을 발휘하지만 인공지능은 불가능하다고 하면 더 이상 말하는 분들은 못봤어요. 사람과 인공지능은 달라요.


그러나 일부 부분에서 과장한 부분이 있긴 했는데, 로봇 파트에서 인간형 휴머노이드의 장점을 말했지만, 인공지능은 100% 정확도가 어려우며, 인간이 모든 환경에서 가장 좋은 형태라고 할 수 없어요. 인간형이 아니면 더 효율을 낼 수 있는데, 이런 위험성을 말하지 못한 것이 아쉬워요. 인공지능이 100% 정확도가 아니라는 점은 옵티머스로 이미 알려졌어요. 옵티머스는 벌써 사망사고를 냈어요. 책에서도 옵티머스를 말했지만 이런 부분은 말하지 못해어요. 100% 정확도가 어려운 AI 특성이 이런 사고를 발생시키고 이래도 기업들은 보험으로 해결하겠다고 하겠지만, 인간의 부상, 사망 사고를 돈으로 해결할수는 없지요.


게다가 과거 인간의 노력을 줄일 수 있다며 인간을 해고하면서 성과가 과장했는데, 이런 부분을 가져왔어요. 일단 100% 정확도가 어려운 점은 AI의 기본적인 본질이기 때문에(다른 포스팅에서 수학으로 증명해 두었고 이미 다 아는 사실이에요. 그걸 제가 수학으로 좀 더 정확히 증명한 것 뿐이에요. 이 증명이 잘 안알려졌기에요. 물론 100% 정확도가 어렵다는 것도 인공지능 비판 책에서만 말하고 다른곳에서는 사람 평균보다 좋다라는 말로 과장하려 하지만요.) 인간을 향한 사고가 아니라 다른 사고도 많이 나게 되어 있어요. 그렇기에 다시 인간을 고용하고 AI를 포기하는 사례도 늘어나고 있어요.



확인할때마다 숫자가 올라가는 AI를 사용했다가 다시 사람을 고용해서 사람이 작업한 것으로 바뀐 게임 공지의 좋아요 숫자. 2418은 그리 유명하지 않고 플레이시간이 짧은 인디 유료 게임에서 아주 많은 숫자에요.


인공지능이 A가 된다와 인공지능이 A에서 좋은 결과값을 가진다는 다른 의미인데 A가 된다에 너무 초점을 맞춘 서술이 많은 것 같아요.


게다가 이번에 소프트웨어주의 하락은 매우 시사하는 바가 커요. 다시 말해서 인공지능 회사에게 데이터 수집을 당하면 그 업종이 인건비를 아껴서 수익성이 좋아지는 것이 아니라 오히려 주가가 하락하는 상황이라는 것이지요. 데이터를 수집당하면 안되어요.


로봇이나 AI를 사용하면, 혹은 AI를 만들기 위해서 AI를 사용하지 않더라도 다른 방법으로 데이터를 수집당하면 결국 불이익은 데이터를 수집당한 사람이나 기업에게 되돌아온다는 것이에요.


이것은 튜링 테스트(사람과 인공지능의 결과물을 제 3자가 구분못하면 지능이라는 말도 안되는 테스트)에 시작된 사람을 속이면 인공지능이 된다는 것에서 사람의 결과물에 특정 값을 넣고 AI에 입력하는 것을 학습이라고 이름 붙이는데, 이것은 사람이 학습하는 것과 달라요. 게다가 우리의 결과물을 데이터로 수집해서 살짝 변형해놓고서는 제 3자에게 구분못하는 것. 원래 그 데이터 원본이 사람이 만든 것이므로 사람이 한것과 사람이 한것을 비교했을 뿐인데도 인공지능이라고 불러요. 물론 인공지능이라도 위의 테스트는 적절하지 않아요. 결국 사람을 속인 것 뿐이잖아요.


이런 것을 하기 위해서 처음에는 인터넷에서 사람들의 결과물을 훔치기 시작했어요. 이때는 수집당하는지도 모르고 있었던 때였지요. 쿠키등을 이용해서 데이터를 수집하는등 다양한 방법을 사용했지만 이때는 잘 알려지지 않았어요. 그러나 그 결과로 나온 인공지능 결과물은 처참했어요.


그래서 이들은 다음으로 사람들의 오프라인 공간의 데이터를 수집했어요. 인공지능 개발자들은 데이터 양이 중요하다고 말을 했어요. 그래서 우리는 오프라인에서도 인터넷과 연결된 마이크는 도청기이고, 인터넷과 연결된 사진기는 CCTV가 되어서 감시당하여요. 그래서 나온 인공지능 결과도 보잘것 없었어요.


그 다음으로 이제 이들은 다른 기업의 영업비밀을 수집하기 시작했어요. 적과 아군도 없어요. 이때 인공지능 개발자들은 갑자기 데이터의 양이 아니라 질이 중요하다고 했어요. 그래서 마구 수집한 결과 소프트웨어 코딩(프로그래밍) 결과는 오픈소스로 많이 나오고 리버스엔지니어링 기술로 만들어진 모든 프로그램의 소스코드는 구할수 있어요. 그 결과 소프트웨어 기업의 타격을 받았어요.


물론 위에 말한 것과 같이 인공지능 결과물은 그래도 처참해요. 인공지능으로 만든 결과물을 다시 사람이 작업하는 결과가 현재 상황이에요. 하지만 결국 이들은 우리의 데이터를 훔쳐서 수집된 데이터는 우리 것이 아니라 그들의 것이라는 이상한 주장을 하면서 이상한 것들을 만들고 있는 거에요. 게다가 현재 만들어진 인공지능의 원리상 좋은 것이 나올 확률은 희박해요. 뭔가 될 가능성은 거의 없어요.


오히려 지금은 데이터의 수집을 막아야 하고 보호하여야 하여요. 우리는 힘이 없어서 데이터를 빼았겼어요. 인터넷 공간과 오프라인 공간에서 데이터 수집을 반대하고 막아달라고 했지만 국가는 전혀 보호해주고 있지 않고, 개인정보보호법은 기업의 합법적으로 우리의 데이터를 수집하는 방법을 알려주는 정도가 되고 있어요.


그런데 이제 인공지능 기업과 다른 기업의 다툼이 되었어요. 이들은 어떤 결과를 가져올까요? 우리는 힘없어서 빼앗겼어요. 게다가 국가는 우리를 보호해주지도 않아요. 다음은 어떻게 될까요?


물론 그래도 인공지능 결과물은 허접해요. 그런데 여기에서 데이터 센터를 더 짓고 있고 로봇이나 AI를 쓰면 더욱 데이터 수집을 당할텐데 다음 결과는 어떻게 될까요?


로봇쓰고 완전경쟁시장이나 다름없는 상태로 회사로 내몰리게 될까요? AI쓰고 영업비밀 다 데이터 수집 당해버릴까요? 다음은 어떻게 될까요? 이런 데이터 수집이 인건비를 아꼈으므로 인공지능이 만들어지면 주가가 오른다가 아니었다는 것에 주목해야 해요. 이제 다른 기업들도 사실을 알지 않았을까요? 물론 삼성은 자신의 직원들이 챗GPT를 사용하지 못하도록 막은 것처럼 기업들은 알아요.


적어도 현재 국가가 할일은 협력사들에게 로봇이나 인공지능 사용을 강제하지 못하도록 하는 법률을 적어도 만들어야 하지 않겠어요? 물론 우리까지 보호해달라고 하는것은 사치일까요? 저는 국민의 권리를 보호하는 것이 정상이라고 생각하는데...


이런 부분의 위험성은 전혀 말하지 못했고 한가지 AI에 대한 부분의 서술은 틀렸지만 많이 틀린 것은 아니며 인공지능 비판 책이 아닌이상 이런 서술을 기대하긴 힘들 것 같아서 ★5개 평가 점수는 아직까지는, 절반은 읽었지만 유지할 것 같아요.


이 책의 장점. 투자의 적절한 시기를 찾는 방법에 대해서는 지지난 연도에 나온 책보다 더 강화된 점도 마음에 들고요.


그림 내 폰트 출처: 고양체




댓글(0) 먼댓글(0) 좋아요(7)
좋아요
공유하기 북마크하기찜하기