● 인공지능에 의한 추천은 언제나 부정확하다고 느껴져요. (게임에 관한 일상)


미국 빅테크 기업의 제품을 사용하면 추천 서비스를 벗어날 수 없어요. 이런 부분은 저에게는 불만스러운 부분이에요. 인공지능 추천을 한다면서 우리 개인정보를 가져가서는 항상 맞지 않는 추천이 이루어지거든요. 게다가 이런 이유로 우리 개인정보를 가져가는 것에 대해서 근거로 사용하는 점도 마음에 들지는 않아요. 그리고 인공지능으로 추천하는 서비스를 매우 크게 광고하는데 써보면 매우 불만족스러운데 과거부터 과장을 많이 했어요.


물론 여기까지는 마음에 들지 않지만, 대부분의 빅테크 기업의 서비스가 이렇게 하고, 빅테크 기업의 서비스를 벗어나기도 힘든 시기라서, 별다른 대안도 없으므로 스팀정도라면 인공지능 추천을 해도 괜찮은 것 같아요.


스팀과 다른 인공지능 서비스. 예를들어 유투브, 넷플릭스등과 차이점은 스팀은 특정 게임을 찾는 것에서 도움이 되는 직접 찾기 기능을 포기하지 않았다는 거에요. 그러나 유투브와 넷플릭스는 이 기능이 약해지고 심지어 넷플릭스는 정확한 이름을 모르면 찾을수도 없게 만들었어요.


직접 찾아서 게임을 추가하거나 플레이할 수 있으므로 스팀의 인공지능 추천에 대해서 그다지 단점이다 같이 생각하지는 않아요. 앞으로도 직접 찾기 기능에 대해서 약화되지 않고 더 많이 지원해주었으면 하고 있어요.


그러나 역시 인공지능 추천은 항상 안맞아요. 특히 이런 추천이 플레이시간에 많이 의존하는 것 같아서, 온라인 게임이나 클리커 같이 플레이 시간이 길어야 게임의 여러가지 성과가 나오는 게임. 이런 게임이 좋은 게임이라고 말하기는 어려워요. 반복이 지나치게 많은 게임들이니까요. 이런 게임을 리뷰하기 위해서 오랜 시간 플레이하면 클리커와 온라인 게임 추천이 아주 많아지는 현상을 경험하고 있어요^^. 직접 찾아서 추가할수도 있으므로 문제가 있다라고 생각하진 않아요. 그리고 온라인 게임의 경우에는 동일 장르 싱글플레이 게임도 추천하므로 다행이다~! 라고 생각하기도 하고요^^.


이러한 부분에서 빅데이터 수집으로 인해서 우리를 파악당하는 것. 문제는 이 파악해서 추천해주는 것이 정확하지 않은데, 여기서 우리는 우리를 잘못 파악했다는 것을 알 수 있어요.


인공지능은 일단 데이터에 대해서 개발자의 주관적인 판단이 1차적으로 들어가요. 데이터에 대해서 값을 다 주어야 하거든요. 가끔 이것이 온라인 알바 앱 서비스에 나타나기도 하는데 어떤 사람이 책에서 온라인 인형 눈달기 알바라고 하기도 하였어요. 그런데 이런 결과값에 의해서 추천해주다 보니 그것이 올바른 값이 안나오는 거에요. 물론 그 이후에 추천에 대한 논리적 과정도 올바르진 않아요.


그래서 항상 우리가 직접 게임을 찾거나 영상을 찾는 등의 기능도 충분히 업데이트하고 발전시켜야 하는데, 여러가지 이유. 특정 영상물에 대해서 영향력을 회사에서 발동시키기 위해서 이러한 부분을 제거하는 경우가 많아요.


우리가 유투버를 해도 성공은 구글이 결정해요. 넷플릭의 영상도 마찬가지에요. 그래서 예전에 우리가 제조업 버리고 문화산업 육성해야 한다고 했을 때 위험하다고 리플을 달았던 적이 있었어요. 우리나라 문화산업이 약해서가 아니라 앞으로 이러한 부분은 글로벌 빅테크 사업자가 성공할 업체를 고르는 경향이 더 심해질 가능성이 있어요.


다행히 게임산업에서는 스팀이 균형을 잡아주고 있어서 다행이라고 생각되긴 하여요. (알라딘도 집접 포스팅을 찾는 기능을 제공하고 있어요)


그러나 역시 인공지능은 나를 파악하기에는 너무 조악스럽다~! 라는 것이지요. 그리고 이렇게 잘못 파악한 것으로 나의 입사와 진급등을 판단하겠다는 생각으로 사용되기도 하여서 경악스럽긴 하여요.


어떻게든 빅데이터 수집을 피해야 하는 것이 이 시대의 사명이긴 하여요.


제가 리뷰어이기 때문에 다양한 게임을 하게 되는데, 이러한 게임을 제가 좋아서 하기보다는 리뷰를 위해서 게임을 할 때도 있어요. 게임도 일로 하면 즐겁지 않을 때도 있지만요.


빅데이터 수집을 피해가는 방법으로는 잘못된 정보를 고의로 수집시키는 방법이 있어요. 이렇게 잘못된 정보를 넣어주면 인공지능은 엉뚱한 결과값을 내게 되어요.


제가 리뷰어라서 제가 좋아하지 않는 게임도 플레이하고 클리커랑 온라인 게임의 플레이시간이 길게 되니까 게임의 추천도 이상하게 되어버리는 경향이 있는 것 같아요^^.


이런 추천을 보면서 인공지능의 과도한 환상이 언제쯤 깨어질까? 같은 생각을 해보게 되어요.


어차피 2016년쯤의 알파고와 결과는 같을 거에요. 지금 인공지능이 그다지 좋지 않고, 곧 우리에게 잊혀질 거에요.


불행하게도 인공지능 답변이 틀릴때가 많은데 앞으로 이 틀린 자료를 근거로 주장하는 분들이 많아질 것이라는 불안한 느낌이 있긴 하네요. 지금도 인공지능 답이 틀렸는데 그걸 가져와서 잘못된 주장을 하는 분들을 많이 보긴 하여요. 앞으로 인터넷 리플 공간은 매우 지저분해질 가능성이 있어 보여요. 물론 이것은 알라딘 같이 책 블로그가 아니라 유투브 같은 곳이나 각종 지식관련하지 않은 SNS에서 사람들간 말다툼이 심해질 것 같은 느낌이 들긴 하네요. 그런데 인공지능 답으로 가져온 사람이 분명 틀린 말을 하고 있을 가능성이 높을 거에요. 이런 미래도 살짝 예측하고 있어요. 물론 이미 이런 현상은 자주 목격되고 있기도 하고요.


지금의 인공지능은 지능을 만든것도 아니고 우리가 사용하는 서비스를 더 불편하게 만들고 있어요.


그림 내 폰트 출처: 고양체




댓글(2) 먼댓글(0) 좋아요(7)
좋아요
공유하기 북마크하기찜하기
 
 
마힐 2026-02-26 10:41   좋아요 1 | 댓글달기 | URL
아, 그렇군요. 인공지능의 잘못 된 답변으로 학습된 인간들이 벌이는 난장판이 될 수도 있단 말씀에 공감이 가네요. 어쨌든 지금의 인공지능은 포장이 과한 것은 맞는거죠? 인공지능을 만드는 개발자들을 아직도 의존해야 하는데, 사람의 개발을 벗어난 스스로 생각하는 진짜 인공지능은 아직 멀었나 보군요.

firefox 2026-02-27 04:11   좋아요 0 | URL
이 부분은 인공지능의 정의부터 생각해보면 간단한데 튜링 테스트가 있어요. 튜링 테스트는 기계의 결과물과 사람의 결과물을 두고 제 3자가 어떤 것이 사람이 한것인지 구분하지 못하면 인공지능이라는 과거에 튜링이라는 천재(아쉽게 너무 이른 시기라 지능의 정의가 현재처럼 잘못 쓰일것은 추측하지 못했나봐요. 이분때문에 컴퓨터가 나왔어요. 영국 20파운드 화폐에 들어갔어요.)가 말한 것을 통해서 인공지능으로 인정하여요. 그래서 항상 사람이 구분하지 못했다라는 뉴스가 나오지요. 그런데 약 2006년경부터 인공지능의 주류가 된 방식은 이 튜링 테스트를 통과하기 위해서 사람의 결과물을 모아서 그것을 연산을 통해서 결과를 조금 바꾼 다음에 사람들이 구분하지 못함을 강조하여요. 결국 그냥 사람의 결과물을 조합해서 결과물을 사람이 한것처럼 연결시키는 것을 연산을 통해서 해요. 이 연산은 수학에서 벡터값을 이용해서 비슷한 벡터값으로 치환하는 방식이 요즘 생성형 인공지능에서 하는 거에요. 즉 생각이 아니라 연산입니다. 그 연산은 다른 프로그램(코딩) 결과물과 같은 것이고 지능이나 생각은 전혀 아니에요. 우리가 다른 프로그램(코딩)을 지능으로 안보는 것처럼요. 그런데 개발자들이 이러한 과정을 학습이라고 이름붙이고 신경망이라고 이름붙이등 우리를 혼란시키는 이름을 달아 놓는것도 우리를 혼란시키는 이유중 하나에요. 지금 인공지능은 인간과 전혀 다르며 인간의 학습과도 다르고 인간의 결과물을 내는 방식과도 전혀 달라요. 단순한 연산결과이지 지능을 만든것도 아니에요^^. 그러나 인공지능이라는 단어는 우리에게 이런 것을 알게 하기 보다는 sf 소설/영화등의 인공지능과 유사하게 생각하는 착각에 빠지게 되지요.

튜링 테스트가 인공지능을 결정하는 방법에서 바뀌지 않는 한 이러한 인간을 속이는 것을 목표로 하는 프로그램을 인공지능이라고 부르는 현상은 사라지지 않고, 직접 창작해서 결과물을 내는 생각하는 인공지능을 만들기 보다는 인간의 결과물을 조금 바꾸어서 작업하는 것 뿐인, 그래서 우리의 데이터를 수집하기 위해서 사생활 보호등을 무시하고 데이터 센터나 짓는 것을 그만두지 않을 거에요. 결과물도 인간의 만든것을 짜깁기 하는 수준에서 벗어나지 못할 것이기 때문에 과대포장이 맞아요. 현재의 주류가 된 방식으로는 튜링 테스트는 통과할지는 몰라도 인간 정도의 창의성을 가지는 지능을 만드는 것은 불가능하여요. 오히려 우리가 만든 창작물을 훔쳐서 짜깁기한걸로 그들이 수익을 얻는데 왜 규제는 안만들어지는지가 문제가 되는 시기에요. 미국에서는 영화 시나리오 작가등이 불공정한 데이터 수집등에 문제를 제기하며 파업하고 캐나다에서는 개인정보보호등의 이유로 구글의 스마트 시티 반대 시위로 구글이 부동산을 다 매입한 상태에서도 결국 프로젝트를 포기시키는 등 많은 국가에서 다양한 문제들이 많이 일어났어요. (한국에서는 제가 데이터 센터 이전에 대해서 1인시위중이긴 하네요^^) ‘실리콘밸리 길들이기‘라는 책을 통해서 이 리플의 근거중 일부를 확인할 수 있을 거에요^^. 이 책은 인공지능에 관련된 기술을 전혀 몰라도 인공지능이 왜 허구인지 이해할 수 있는 쉬운 책이라서 소개했고요, 혹시나 좀 더 전문가가 쓴 책을 통해서 확인하고 싶다면 읽어보시면 좋은 책이에요. 더 관심이 있으시면 이 리플의 근거가 된 다른 책들도 더 소개해 드릴 수 있으니 혹시나 필요하면 리플 주세요^^. 오늘도 행복하고 건강한 하루 되세요^^.