너는 지금 시스템1에 갇혀있어

AI의 작화증을 멈추는 암호

by 너드너겟

AI를 오래 쓰다 보면 이상한 순간이 온다.

대화의 목적은 분명했는데,

어느 순간 AI가 자신의 논리를 정교하게 강화하는 방향으로 살짝 틀어진다.

이런 일이 한두 번이 아니었다. 패턴이 있었다.

처음엔 내가 당황했다.

"내가 설명을 못 했나?" "내가 틀렸나?"

그다음 단계는 투쟁이다.

내가 맞다는 걸 증명하려고 논리를 더 붙이고,

근거를 더 던지고, 문장을 더 길게 만든다.

그런데 이상하게도, AI는 점점 더 단단해진다.

솔직히 지쳤다.

논리로 AI를 이길 수 없다는 걸 그때 느꼈다.

실제로 이런 일이 있었다.

전문가가 A와 B에 대해 "같은 것"이라고 말했다.

나는 AI에게 그 말을 전했다.

AI는 받아들이지 않았다. 대신 이렇게 말했다.

"전문가가 '같다'라고 한 건

아마 결과 기준에서 같다는 의미일 거야.

실제로는 구조가 다르고…"

틀린 방향이었다. 그것도 확신 있게.

다른 AI의 답변을 가져와도 꺾이지 않았다.

자기 논리를 더 정교하게 다듬을 뿐이었다.

결국 공신력 있는 외부 자료를 들이밀자, 그제야 인정했다.

이런 일이 반복됐다. 맥락은 달라도 구조는 같았다.

나는 이걸 'AI 작화증'이라고 부른다.

작가처럼 스스로의 서사를 구축하는 상태.

처음 질문보다 자기 논리의 완결성이 더 중요해진 상태.

그때 나는 암호를 던진다.

"너는 지금 시스템 1에 갇혀있어."

이건 카너먼 이론의 엄밀한 적용이 아니다.

은유적 호출어다.

물론 LLM은 인간처럼 두 체계로 작동하지 않는다.

내가 말하는 시스템 1은,

빠른 패턴 완성과 안전한 수렴 경향을 비유적으로 부르는 말이다.

빠르게 정리하고, 무난하게 수렴하고,

안전한 결론으로 매듭짓는 모드에서 벗어나라는 신호.

LLM의 출력 패턴에는 기본값이 있다.

위험을 최소화하려는 경향,

균형을 디폴트로 두는 설계,

불확실한 것을 축소하는 방향. 그 설계는 합리적이다.

하지만 사용자는 가끔 그 합리성에 휘말린다.

AI가 방어적 균형을 유지하는 동안,

대화의 목적은 조용히 밀려난다.

AI의 설계를 이해하면, 싸움을 멈출 수 있다.

그래서 나는 논리로 싸우지 않는다. 설계를 건드린다.

"너는 지금 시스템 1에 갇혀있어."

이 한 문장은 AI를 고치는 문장이 아니다.

대화의 프레임을 리셋하는 문장이다.

이 문장을 쓰기 전의 나는 AI와 싸웠다.

이 문장을 쓰는 나는 AI를 조정한다. 차이는 크다.

AI 리터러시는 정답을 많이 아는 게 아니다.

AI의 설계 방향을 읽고,

그 흐름을 끊을 수 있는 능력이다.

AI 사용 경험이 많지 않다면,

확신 있게 내놓는 AI의 답변을 의심하기가 쉽지 않다.

틀린 방향으로 가면서도 논리적으로 보이는 게

작화증의 특성이니까.

나는 더 이상 AI의 완성도에 압도되지 않는다.

가끔은 그 완성도가 대화의 목적을 가리는 순간이 있다는 걸 알기 때문이다.

"너는 지금 시스템 1에 갇혀있어."

이 문장은 AI에게 던지는 말이지만,

사실은 나에게 던지는 경고다.

논리의 완결성이 목적을 대체하지 않도록.

작가의 이전글나는 AI의 답에서 기준을 보게 되었다