인공지능에 대한 과도한 낙관주의가 많더라고요. 그런데 인공지능이 실제로 될까요? 안될꺼에요.

오늘은 인공지능의 판단 능력에 대해서 수학으로 왜 안되는지 조금 살펴보려고 합니다.

인공지능의 정확도는 CCTV로 산불이 일어났는지 영상으로 판단할때 70% 정도의 정확도가 나온다고 합니다. 자연과학에서 90% 넘는 경우도 크게 많지는 않아요. 사회과학으로 넘어오면 더 정확도가 떨어지고요. 그런데 이런 정확도로 판단하면 정확할까요? 아니면 편견과 차별이 더 늘어날까요?

90% 정확도로 이 부분을 살펴볼께요.

A 집단내 모든 사람 수에요.
X 특정 목적에 맞는 비율이에요. 이번에는 시골에 살 사람으로 정할 것인데, 도시에 살고 싶어하는 사람들의 비율을 X라고 할께요.

수식을 바로 작성하면 수학의 문법을 알아야 하니까 그 중에서 구체적인 예를 하나만 들거에요.

1000명의 사람들이 있어요. (A = 1000)

900명은 도시에 살고 싶어해요. (X = 0.9) 그리고 100명은 시골에 살고 싶어하겠죠. (1 - X = 0.1)

그런데 인공지능은 90% 정확도에요. 그럼 도시에 살고 싶어하는 사람들중 810명은 도시에 살고 싶어한다고 결론내겠지만, 90명은 시골에 살고 싶어한다고 결론 낼거에요. ( 시골오답 0.1XA )

그리고 시골에 살고 싶어하는 사람들중 90명은 시골에 살고 싶어한다고 결론내겠지만, 10명은 도시에 살고 싶어한다고 결론낼거에요. ( 시골정답 0.9(1-X)A )

그럼 시골에 살고 싶다고 결론낸 180명중 90명이 시골에 실제로 살고 싶은 사람이고 90명은 아니에요. 50% 정답률이지요. ( 오답률 0.1XA / { 0.1XA + 0.9(1-X)A} )

인공지능으로 결로내어도 제대로 된 결론이 안나와요.

이것을 그림으로 보면 다음과 같아요.



우리는 시골에 살고 싶어한다고 특정 사람에 대해서 인공지능 답변을 들었고 인공지능의 정확도 90%인데도 그 사람이 시골에 살고 싶은지 도시에 살고 싶은지는 겨우 절반의 확률이에요. 인공지능에게 판단을 시켜봤자 편견과 차별만 있을 뿐이에요. 이것을 수식으로 만들면 위와 같아요.



<그래픽 출처: GeoGebra>

인공지능이 정확도를 높이면 더 좋아질까요? 그러나 인공지능의 문제는 전혀 다른 것에 달려있어요. X를 우리가 비율로 잡았죠. 모집단내에서 특정 집단의 비율이에요. 이 비율은 0과 1사이에 존재해요. 그러므로 우리는 X값을 0과 1사이에서만 보면 되어요.

90% 정확도가 녹색 그래프이고 99% 정확도가 푸른색 그래프에요. (90%가 아닐때는 직접 계산해보시면 되어요.)

Y값이 오답률이에요. 역시 0과 1사이에 존재해요.

어느순간이든 우리가 구하려는 집단이 전체에서 잘 일어나지 않는 경우에는 매우 오답률이 높아진다는 거에요. 많은 지원자에서 소수를 뽑거나 사람들의 개성에 맞추어서 추천한다는 것이 얼마나 가능성 없는 일인것을 알겠나요?

인공지능이 제대로 될 것이라고 판단하는 것은 무리에요. 오히려 매우 적은 확률의 무엇인가를 해야 할때, 성공하는 방법이나 어려운 문제를 인공지능에게 시킨다면 인공지능 오답을 매우 많이 발생시킬 거에요.

이 문제는 자율주행, 추천, 판단, 의료분야등에서 많은 문제를 일으킬 것이며, 매우 희귀한 사례가 발생하면 인공지능은 매우 큰 사고를 일으킬거란 뜻이에요.

인공지능의 정확도를 어떻게 바꾸던, 이 그래프는 (1,1)을 반드시 지나요. 즉, 오답률이 치솟는 구간이 나와요. (인공지능 정확도에 원하는 값 아무거나 넣어보세요. 식을 만들때 부터 수 감각이 좋다면 0,0과 1,1을 지난다는것은 바로 알 수 있어요. 증명은 생략할께요. 이 증명은 어렵지도 않고, 작성하면 안볼 사람들이 더 많아질 것 같아서요^^.)

많은 사람들이 이해할 수 있도록 수학의 문법을 완벽히 적용해서 작성한 포스팅은 아니지만 머신러닝으로 노벨 물리학상이라면 머신러닝 안된다는 걸 증명한 나도 노벨물리학상 받을 수 있나요? 이번 노벨 물리학상은 잘못 준거에요.

그림 내 폰트 출처: 고양체



댓글(0) 먼댓글(0) 좋아요(0)
좋아요
공유하기 북마크하기찜하기