질문 이후, 맥락이 붕괴되는 지점
AI의 오류는 보통 기술적 문제로 설명된다. 틀린 정보, 잘못된 인용, 근거 없는 주장. 이른바 할루시네이션이다. 그래서 많은 논의는 어떻게 오류를 줄일 것인가, 어떻게 더 정확한 답을 얻을 것인가에 머문다. 질문을 더 정교하게 만들면 해결될 것이라는 기대가 전제된다.
그러나 AI와 실제로 긴 대화를 나누며 사고해 본 경험은 이 설명이 충분하지 않다는 것을 보여준다. 내 경험에서 AI의 오류는 대화가 길어질수록 줄어들지 않는다. 어느 순간부터는 오류가 누적되는 것이 아니라, 대화 자체가 완전히 다른 방향으로 흘러간다.
아예 다른 대화를 하고 있다는 감각
나는 같은 문제를 다루고 있다고 생각하지만, AI는 전혀 다른 전제와 목적을 가진 응답을 계속해서 제시한다. 이때의 문제는 ‘틀렸다’가 아니다. ‘조금 어긋났다’도 아니다. 아예 다른 대화를 하고 있다는 감각이다. 대화는 이어지고 있지만, 더 이상 같은 대화가 아니다.
이 현상은 AI가 대화를 누적된 맥락으로 처리하지 않기 때문에 발생한다. AI는 대화의 시작점부터 사고를 이어 가는 방식으로 작동하지 않는다. 항상 가장 마지막 질문을 기준으로 응답을 새로 구성한다. 그 결과, 앞에서 합의했던 조건과 이미 수정했던 전제, 도달했던 사고의 지점이 대화 속에서 사라진다. 대화는 이어지지만 축적되지 않는다. 매번 새로 시작된다.
그래서 이 문제는 질문을 더 정교하게 만든다고 해결되지 않는다. 질문이 많아질수록 대화는 더 멀어지고, 작업은 의도한 방향에서 이탈한다. 질문은 언제나 ‘정답이 존재한다’는 전제를 깔고 있지만, 맥락이 붕괴된 상태에서는 그 전제 자체가 유지되지 않는다. 질문은 더 이상 사고를 앞으로 밀어내지 못한다.
바로 이 지점에서 사고의 형식이 바뀐다. 사용자는 더 이상 답을 기다리지 않는다. 답을 검토하기 시작한다. 이 응답은 처음의 문제와 같은 문제를 다루고 있는가, 어디서부터 전제가 바뀌었는가, 지금의 대화는 어디에서 벗어났는가를 되묻는다. 이 질문들은 서로 독립적이지 않다. 하나의 판단이 다음 판단의 방향을 바꾸며, 사고는 연속적인 대화의 형태를 갖게 된다.
내가 플라톤의 대화와 AI와의 대화를 비교하려 했던 이유도 여기에 있다. 대화로 오류를 바로잡을 수 있을까라는 질문 때문이다. 플라톤의 대화에서는 전제가 흔들리면 다시 그 지점으로 돌아가 대화를 이어간다. 같은 자리에 머물며 사고를 반복하고 수정한다. 대화는 기억을 가진다.
그러나 AI와의 대화에서는 한 번 맥락이 크게 바뀌는 순간이 있다. 그 지점 이후의 대화는 이전 대화를 수정하는 과정이 아니라, 사실상 새로운 대화가 되어 버린다. 이때 나는 오류를 바로잡기 위해 대화를 계속 이어 가기보다, 아예 새로운 대화창을 열어 처음부터 다시 시작해야 할 때도 있었다.
이 경험은 중요한 사실을 드러낸다. AI의 오류는 언제나 대화 속에서 회복 가능한 것이 아니다. 대화는 사고를 유지시켜 주기도 하지만, 어느 선을 넘으면 더 이상 같은 대화로 남아 있지 않게 된다. 그래서 AI 시대의 대화는 연결의 기술만으로는 부족하다. 언제 대화를 유지할 것인지, 언제 대화를 끊고 다시 시작할 것인지를 판단하는 능력까지 요구한다.
그래서 AI의 오류는 단순한 결함이 아니다. 오류는 답의 문제가 아니라 대화의 구조가 붕괴되는 지점에서 발생한다. 오류는 대화를 방해하기도 하지만, 동시에 대화의 한계를 드러낸다. 이 지점에서 질문의 시대는 끝난다. 이제 필요한 것은 대화를 관리하고 재정렬하는 판단이다.
[AI와의 대화 스킬: Core Prompting Skills]
Context Collapse Recovery: 대화의 맥락이 붕괴되었을 때 이를 인지하고 초기 전제로 복귀시키거나 재설정하는 기술.
Hard Reset (Format): 질문의 오염을 막기 위해 기존 맥락을 과감히 버리고 새로운 대화 구조를 설계하는 판단력.
mookssam