AI 할루시네이션이 대화를 요구하는 이유

by mookssam

AI와의 대화에서

사고가 멈추지 않는 이유는

질문을 잘했느냐, 못했느냐의 문제가 아니다.


문제는

AI의 응답이 완결되지 않는다는 데 있다.


AI의 답변에는

사실과 다르거나,

근거가 충분히 제시되지 않은 내용이

포함되는 경우가 있다.

이 현상은

할루시네이션(hallucination)이라 불린다.


할루시네이션이란

AI가 실제로 존재하지 않거나

검증되지 않은 정보를

사실처럼 생성해 제시하는 구조적 현상이다.


이로 인해

AI의 응답은

도착과 동시에

확인의 대상이 된다.

답은 끝이 아니라

사고를 다시 움직이게 하는 계기가 된다.


사용자는 자연스럽게

다시 묻게 된다.


이 주장은 사실인가.

근거는 충분한가.

출처는 신뢰할 수 있는가.

다른 해석은 가능한가.


이 질문들은

서로 분리되어 있지 않다.

앞선 질문의 답이

다음 질문의 방향을 결정한다.

이렇게 질문이 이어지면서

사고는 단일한 질문의 형식을 벗어나

대화의 형식을 갖게 된다.


중요한 점은

할루시네이션이

사고를 방해하는 요소로만

작동하지 않는다는 것이다.

오히려 이 불완전함 때문에

사용자는 응답을 그대로 소비하지 않는다.

확인하고, 비교하고,

다시 질문하게 된다.


즉,

할루시네이션은

사고를 멈추게 하는 오류가 아니라

사고를 계속 요구하는 조건이 된다.


이 과정에서

사고의 성격도 달라진다.

답은 잠정적인 것으로 다뤄지고,

근거는 반복적으로 점검되며,

논리는 고정되지 않고 수정 가능해진다.


대화는

정보 교환의 형식이 아니라

검증의 형식으로 기능한다.

사용자는 더 이상

답을 기다리는 사람이 아니라,

답을 점검하는 위치에 놓인다.


이 지점에서

사고의 주체는

AI가 아니라

여전히 인간이다.

AI는 응답을 제시하지만,

그 응답을 대화로 전환하고

어디까지 신뢰할지를 판단하는 일은

사용자의 몫이다.


그래서

AI 시대의 핵심 변화는

질문이 많아졌다는 데 있지 않다.

질문이 서로 연결되어

긴 대화를 형성하게 되었다는 데 있다.


이 장에서 살펴본 것은

AI 기술의 성능이 아니라,

AI와 함께 사고하는 방식의 변화다.


다음 장에서는

이 ‘긴 대화’의 형식이

이미 고대 플라톤의 대화편에서

어떻게 제시되었는지를

살펴보고자 한다.



Photo by RDNE Stock project

keyword
작가의 이전글플라톤의 대화 : AI 시대, 질문에서 대화로