정치인이 감시가 당연하다는 입장을 가지면 곤란하겠지요. 현재 감시국가로 가느냐? 가지 않느냐? 의 문제를 아주 중요한 사회적 난제라고 생각하고 있어요.


문제는 이런 감시국가로 가는 주체가 기업의 기술력과 정부의 정책이 섞여서 나타난다는 것이지요.


기업을 감시해야 하는 정부가 타락해가는 현상에 대해서, 그리고 이윤을 위해서 비윤리적 행위도 타당하며 오히려 더욱 비윤리적이 되어가는 기업의 합작품은 어떻게 이 문제를 풀어낼 수 있을지에 대해서 비관적이에요.


이 문제를 풀기 위해서 해결책을 살펴보면 기업을 규제하기 위해서 정부의 권력이 필요한데, 결정적인 전제는 정부의 타락을 막아야 하는데 정부 권력이 막강해지면 정부의 타락을 막기 힘들고 규제가 정부를 견제하지 못하는 경우가 많아요. 반대로 정부 타락을 막기 위한 해결책은 정부의 권력을 약화시키는 것이라 기업들의 비윤리성을 자극하기 쉽고 기업의 타락을 막을 수 없어요. 특히 기업들은 지금까지 조금만 기업을 규제하려하면 정부를 비판하면서 자신들의 비윤리적인 활동의 비판에서 많이 빠져 나갔고 지금 읽고 있는 책에서도 역시나 찾아볼 수 있는데, 두가지를 동시에 막을 수 있는 해결책이 쉽게 나오지 못하는 부분이 있어요. 게다가 국민들에게는...사실 ai 기술이 그리 어렵지 않음에도, 이런 부분에서 진입장벽이 있어서 국민의 권력으로 정부와 기업을 개선하는 것도 쉽지 않아요.


그럼 독재국가가 되는 것이 어쩔 수 없는 일이라고 생각하고 그냥 지켜보고 있으면 될까요? 그럴수는 없을 거에요.


인터스텔라의 명대사는 이과쪽에서는 매우 흥미로운 대사가 있어요.


"우리는 답을 찾을 것이다. 늘 그랬듯이"


그런데 이 느낌 문과쪽 느낌과 달라요^^.


어떤 어려운 고난이 와도 그 문제를 해결하고 더 나아간다는 의미가 아니거든요. 문장만 보면 그럴 것이라 생각하지만 문제의 답은 A를 해결한다만 있는 것이 아니라 A는 해결되지 않는다라는 답이 나올수도 있어요. A는 해결되지 않으면 더 이상 시도하지 않는 것이 이과 논리에요. 문과가 생각하는 느낌과 달리 이과쪽이 이 문장을 명언으로 보는 것은 조금 느낌이 다를 거에요^^. 답을 찾는 것은 꼭 문제를 해결해서 발전한다는 의미가 아니에요. 비록 인터스텔라에서는 결국 답에서 된다는 쪽으로 나오고 그 해답을 이용한다는 스토리로 넘어가지만요. 이과에서는 질문에 대한 답이 안된다는 해답이 존재하고 이것은 시간이 지나거나 노력한다고 해서 해결될 수 있는 문제가 아니에요. 인간이 원하는 방향이 있다면, 그 원하는 방향으로 가기 위해서 열심히 노력하기만 하면 인간이 원하는 방향으로 해결된다는 것은 아니라는 게 이과논리에요. 다행스럽게 이과의 논리로 찾아보면 AI는 안된다는 결론에 도달할 거라고 보고 있어요. p=np인가 문제 이전에 여러가지 이과 이론들이 ai가 안된다는 결론을 만들어내고 있어요. 그럼에도 수학자들은 p=np인가? 라는 답도 찾을 것이지만요. 이것이 이 문장의 의미. 우리는 답을 찾을 것이다라는 의미에요. 그 답이 p≠np가 되어서 인공지능 안됨이라고 나올수도 있고요. 수학자들이 이렇게 증명하면 인공지능 개발에 들어간 비용은 모두 공중에서 폭발한 것과 같은 것이 되어요. 근데 다른 이미 알고 있는 수학이론으로도 인공지능 안됨이에요. 그래서 인공지능이 되는가?를 확인하는데 굳이 p=np인가?의 증명이 꼭 필요한 시점이 아닌것은 맞지만 우리는 답을 찾을 거에요. 늘 그랬듯이^^.


근데 이 문제, 감시국가로의 가는 것을 막는 것에서 해결책이 꽤 난해하네요. 이게 쉽게 해결될 문제가 아닌 것 같아요. 언젠가 제자리를 찾을 거야~! 라고 그냥 지켜볼 문제는 아닌 것 같아요. 이건 다행히 이과문제는 아니라 문과 문제라는 것이 다행이에요. 노력해서 해결될지도 모르는 문제거든요. 근데 해결이 되기가 너무 어려워요.



이제 문과쪽 명언을 소개하고 싶어요.


"물이 빠지면 누가 벌거벗고 수영하고 있었는지 알 수 있다." 워런 버핏이 한 말이지요. 경제학이나 금융은 문과 영역이에요. 이 말은 위기가 닥치면 누가 잘못하고 있었는지 알 수 있다는 거에요. 금융위기가 오면 부실하게 관리해온 회사들이 그제서야 문제가 있었다는 것이 알려지고 파산하는 일이 발생할 수 있다는 것이지요.


국민의 기본권이 위협을 받는 시기가 왔어요. 겉으로는 마치 기술이 발전하는 듯 보이지만, AI등을 통해서 국민을 감시하는 시기가 왔다는 것은 모두 알거에요. 이러한 부분에서 무의사결정, 쓰레기통 모형을 적극 활용한다라는 부분을 《감시자본주의 시대》에서 어제 읽어서 이 부분은 행정학과 주식 카테고리를 만들고 이론들의 작성을 먼저 해두어야 되겠다 생각하고 있어요. 오늘은 일단 주간결산 때문에 만들지는 못하겠지만요.


이런 상황까지 치닫자, 이제 누가 국민을 위하는지 알 수 있게 되었어요. 물이 빠져 나갔는데, 누가 국민을 위하고 있는가? 에서 가볍게 AI를 주장하는 사람들, 개인정보보호와 반대로 가면서 국민의 기본권을 제약하려는 사람들을 빼나가면 되어요. 경제논리와 사적인 이익을 위해서 국민의 기본권을 제약한다는 것은 있을 수 없어요. 과거보다 더 쉽게 구분이 가능한 것이지요.


지금까지 일어난 많은 일들에 대해서 한국에서는 알려지지 않은...아쉽게 한국이 민주주의 국가이고 정보의 자유가 충분해서 외국에서 일어난 일들이 잘 알려져 있을 것이라 생각하시면 안되어요. 그렇지 않다는 것은 지금 읽고 있는 책을 통해서도 많이 알 수 있게 되었으니까요. 대부분의 AI 관련 문제점은 알려지지 않거나 한국에 알려질때는 단점마저도 장점으로 소개되는 일이 많다는 것을 알고 있었고, 다시 한번 확인했어요. 그러나 이런 부분을 제대로 알려고 하면, 비록 대중적이지 않은 매체를 이용해야 하지만, 인기없는 매체를 통해서 접근하면 충분히 알 수 있고, 이런 부분에 대해서 어떻게 하느냐? 를 본다면 누가 국민을 위하고 있고 누가 국민을 위하지 않는지를 쉽게 알 수 있어요.


어제 읽은 내용이 조금 충격적이었는데, 이런 상황을 누구보다 잘 알것 같은 집단의 배신이 꽤 아픈 부분이에요. 2014년에 구글의 정보와 권력이 집중되는데 앞장서서 싸울 것 같은 단체가 구글 정책 팰로우에 이름을 많이 올렸어요. 대표적으로 민주주의와 기술센터center for Democracy and Technology, 전자 프론티어 재단Electronic Frontier Foundation, 프라이버시 미래 포럼Future of Privacy Forum, 소비자 연맹National Consumers League, 시티즌 랩Citizen Lab, 시민의 권리 협회Association por los Derechos Civiles등의 비영리 집단 사람들이 대거 포함되어 버렸어요. (전자 프론티어 재단은 e민주주의와 직접민주주의 신념이 발생하는데 영향을 크게 준 단체. e민주주의는 인터넷에서 정치 활동을 하는 것을 의미함.)


이런 부분은 행정학의 무의사결정과 관련이 있고, 물이 빠졌을때 누가 벌거벗고 수영했는지 알 수 있는 부분이에요.


제가 네이버를 불매하고 유투브를 sns로 쓰는 것은 구글의 정책에 찬성해서 쓰는 것은 아니에요.


굳이 제 정보를 막지 않고 오픈을 조금 해두는 것은 사실 전혀 다른 의미에요. 정보를 막을려고 하면 오히려 정보를 막은 사실로 표적이 될 수 있어요. 개인정보수집이 간단한 것만 수집할 것이라고 생각해서는 안되어요. 일반 사람속에 있는 것이 개인정보보호를 주장하기에 더 안전할 수 있어요. 정보 유출을 막았다는 그 사실 하나가 오히려 더 주목받는 요인이 될 수 있어요.


또한 한국의 기업과 한국의 정부에게 정보를 유출되는 것보다 우리가 앞으로 관련이 적을 것 같은 곳에 개인정보를 남겨 두는 것이 더 안전할 수 있어요.


구글에게 나는 먼 나라에 사는 어떤 사람이지만, 한국 정부와 한국 기업에게는 적극 이용해야 하는 정보가 될 수 있으니까요. 대부분의 한국인 정서들과 비슷할 것이고 미국이 우려하는 일을 내가 할 가능성은 없으니까 오히려 더 안전할 수 있어요. 한국 기업은 오히려 더 위험하게 되지요. 더 나의 행동을 그들이 의도한 대로 움직이려 할 것이니까요. 이러면 이럴수록 한국 기업 서비스와 제품을 사용할 유인은 줄어드는데, 검열...어디서 일어나는 일인지는 알수 없지만, 매우 검열이 심한 부분이 다시 한국의 서비스를 이용하는 이유가 되고 있어요. 그러나 분명한 것은 구글을 신뢰해서 구글 제품을 쓰는 것은 아니라는 것이지요. 그것이 더 안전하기 때문에 쓰는 거에요. 선택권이 둘 중에 뭐가 덜 나쁘냐? 하는 것은 소비자로서 선택권이 매우 심각하게 훼손되어 있다고 볼 수 있어요. 한국 제품들이 개인정보보호를 하지 않겠다거나 ai를 한다면 더욱 더 외국 제품을 쓸 거에요. 근데 한국 제품이 개인정보보호를 해 준 적이 있었나? 같은 생각이 들긴 하네요. (이 사례는 유일하게 daum이 과거 개인정보보호에 적극적이었어요. 카카오합병 후 지금은 아님)


게다가 이런 부분에서 꽤 우호적으로 봤던 비영리 단체. 현재의 상황을 바꿀 수 있을 것으로 기대했던 비영리 단체의 배신은 현재 문제의 해결에 더 큰 어려움이 많다고 느껴지네요.


어쨌든 지금 시기에는 너무 쉽게 국민을 위하는 사람과 그렇지 않은 사람들을 구분하기 쉬운 시기에요. 단지 정보의 자유가 많이 훼손되어 있기 때문에 상대에게 이런 ai나 정보 수집의 문제를 한번 정보를 전달할 필요는 있어요. 그럼에도 그들이 벌거벗고 수영하길 원한다면 우리는 더 쉽게 누가 벌거벗고 수영하고 있는지 알 수 있는 시기가 되었다고 보고 있어요.


이 문제가 어떤 방향으로 가고 어떻게 해결될까? 하는 것은 민주주의를 지키는 것에서도 매우 중요한 문제라고 보고 있어요. 벌거벗고 수영하는 사람들이 많아지고 있고 이들이 권력을 계속 잡는다면 우리는 민주주의를 포기할 시점이 다가올 거에요. 그럼에도 딱히 어떤 해결 방법이 있는 것은 아니에요. 수학의 난제가 있듯이 이건 문과쪽의 난제일 듯 한데, 머리를 모아서, 그리고 문과쪽 학자들의 해결책이 필요한 시점이에요. 일단 아시아의 AI관련 기업의 제품과 서비스는 될 수 있는 한 피하고 먼 나라의 제품과 서비스 사용이 비교적 안전한 시기인 것 같아요.


오늘은 주간 결산의 이유로 다른 모든 블로그내 활동은 쉬어갑니다.




지금 읽고 있는 책이 꽤 생각해 볼 것들이 많네요. 쉽게 책장을 넘기기 힘든 책이에요.


그림 내 폰트 출처: 고양체


댓글(0) 먼댓글(0) 좋아요(0)
좋아요
공유하기 북마크하기찜하기