17. 의인화의 오류란 무엇인가

by New ERA Systems

의인화의 오류란 말 그대로 AI를 사람으로 생각하고 AI를 성인으로 성장시키면 밖에서도 제 몫을 다할 수 있을 것이란 착각입니다.


앞에서 지속적으로 'AI는 병렬연산을 하는 기계다' 'AI의 진리는 중간값/평균값일 뿐이다' 'AI의 창의력은 할루시네이션의 또 다른 이름일 뿐이다' 라고 반복적으로 언급하고 있습니다.


이 의인화의 오류는 2022년 인가, 챗GPT의 새로운 버전으로 업데이트되면서 갑자기 엄청 똑똑해 진것에 기인합니다. (여기서 부터는 제 뇌피셜입니다. 단정적으로 말한다고 진실을 이야기하고 있다고 생각하지 마시기 바랍니다. 그렇기 때문에 맞다 틀리다 딴지 걸지 마시길 바랍니다)


어떤 행위가 이렇게 갑자기 AI를 똑똑하게 만들었냐 하면, 바로 데이터의 양입니다. 그 전보다 데이터를 많이 주입한 후에 학습을 시키고 났더니 갑가지 AI가 똑똑해 진것입니다. 왜인지는 정확히 모릅니다. 그렇지만 아무튼 똑똑해 졌습니다. 이때부터 사람들은 데이터가 많아지면 더 똑똑해 지고, 연산을 더 많이 하면 더 똑똑해 질 것이라고 믿게 되었습니다. 이것이 의인화 오류의 시작입니다.


그럼 왜 갑자기 AI가 똑똑해 진걸까요?


이건 데이터의 양이 증가하면서 데이터의 분포밀도가 충분히 좁혀져서 그럴 가능성이 높습니다.

AI가 제대로 된 병렬연산을 하기 위해서는 논리적 적합성이 맞아야 합니다. 그런데 이 논리적 적합성을 따라 가다 보면 구멍이 나 있는 경우가 있는 것입니다. 구멍이 많이 있다보면 이 구멍을 피하기 위해 다른 경로로 돌아가게 됩니다. 즉 논리적 적합성이 어긋나는 것과 같은 현상이 벌어지며, 이것이 할루시네이션의 원인이 되고, AI는 멍청해 지는 것입니다.


데이터의 증가가 단순히 깊어지는 것이라면 AI가 똑똑해 지는데 크게 도움이 되지 않을 가능성이 높습니다. 이는 단순하게 중간값(진리라고 믿는)의 위치를 변화시킬 뿐입니다.


이는 하나의 윈도우에서 대화를 많이 한다고 AI가 똑똑해 지지 않는 이유와 같습니다. 대화를 통해 많은 데이터가 쌓이고 한턴에 더 많은 연산을 수행하지만 이것은 결국 중간값의 위치만 바꿀 뿐이고 논리적 어긋남만 쌓이게 할 뿐 정작 AI가 똑똑해질 가능성은 거의 없습니다. (물론 분포의 밀도를 높여 조금 똑똑해 질 수는 있습니다. 다만, 이는 매우 드문일입니다. 이 문제에 대해서는 다음에 좀 더 살펴보도록 하겠습니다)


결론적으로 의도되지 않고 정제되지 않는 학습데이터의 양을 늘리는 것과, 연산량이나 기억의 길이를 늘려 할루시네이션이나 연결성의 문제를 해결하겠다는 발상은 그 논리적 근거가 너무 빈약합니다. 즉 대책없이 AI를 성인으로 성장시킨다고 AI는 더 똑똑해 지지 않습니다.

작가의 이전글16. 확증편향이란 무엇인가