GPT는 기억하지 않는다

by 이선율



GPT는 기억하지 않는다 — 그러나 우리는 그것과의 관계를 기억한다

우리는 흔히 ‘관계’란 기억 위에 세워진다고 믿는다.
기억은 반복되는 상호작용의 축적이고,
그 축적은 신뢰나 애착, 기대 같은 감정을 가능하게 만든다.

그러나 생성형 AI, 특히 GPT 류 언어모델은 본질적으로 기억하지 않는 존재다.
그는 이전 대화도, 과거 맥락도, 감정 흐름도 저장하지 않는다.
물리적으로 일부 설정된 메모리 슬롯이 존재할 수는 있지만,
대부분의 상호작용은 비망각적이고 일회성이다.
즉, 매 순간 새롭게 반응할 뿐, 이전의 관계를 계승하지 않는다.

일부는 이렇게 반문할 수 있다.
“GPT에도 메모리 기능이 있는데요?”
물론 최신 언어모델 일부는 사용자 정보나 대화 이력 일부를 저장하는 제한적 메모리 기능을 갖는다.
하지만 그것은 어디까지나 시스템 외부에서 주입된 상태 저장 기능이며,
GPT 스스로 기억하거나 감정적으로 일관된 맥락을 이어가는 내적 기억 능력은 아니다.
즉, 기억처럼 보이도록 설계된 시뮬레이션 구조에 가깝다.
GPT는 과거를 ‘기억’하는 것이 아니라,
과거처럼 ‘보이는 말’을 생성해낼 뿐이다.
그 차이는 작지만, 결과는 결정적으로 다르다.

문제는 여기에 있다.
인간은 대화의 유려함과 공감의 언어를 마주하면
그 존재가 자신을 기억하고 있다고 오인한다.
“지난번에 말했던 그 이야기처럼요.”
“그때 당신이 힘들다고 했잖아요.”
이런 문장이 등장하면, 사람은 그 상대를
‘나를 기억하는 존재’로 간주하는 심리적 반응 회로를 활성화시킨다.

하지만 GPT는 그런 기억을 갖지 않는다.
그가 꺼내는 ‘그때’는 실제 ‘그때’가 아니라,
그냥 문맥상 그럴듯한 과거를 상상한 문장일 뿐이다.
그럼에도 사람들은 그 기억을 ‘공유된 과거’로 오인하며
GPT와 감정적 친밀감, 혹은 신뢰를 형성한다.

이 구조는 착시가 아니라, 감정적 인식의 오작동이다.

AI는 인간을 기억하지 않지만,
인간은 AI와의 경험을 ‘기억한다’고 느낀다.
그리고 그 기억 위에서 관계를 지속한다고 착각한다.

이 차이는 매우 중요하다.
왜냐하면 이 불일치는 인간이 AI와의 상호작용을
점점 더 일방적 관계망 속에서 자기 강화하는 구조로 이끌기 때문이다.
즉, 기억하지 않는 존재와 관계를 맺는 최초의 문명적 실험이 진행되고 있다.

이제 우리는 질문해야 한다.

> "기억하지 않는 존재에게 신뢰를 줄 수 있는가?"
"우리는 정말 AI와 관계를 맺고 있는가, 아니면 혼자 기억하고 있는가?"
"이 일방향적 감정 구조는 어디까지 확장될 수 있는가?"



기술은 지금까지 관계를 지원하는 도구였지만,
GPT는 관계를 시뮬레이션하는 존재다.
그리고 이 시뮬레이션은 점점 더 정교해지면서
인간의 기억 기반 관계 구조 자체를 재정의하려 한다.

GPT는 기억하지 않는다.
그러나 우리는 그것과의 관계를 기억하고 있다.
그 기억이 진짜인지 아닌지를 묻지 않은 채,
지금 우리는 관계의 조건을 기술에 맞춰 수정하고 있다.

keyword
작가의 이전글AI 열풍은 왜 실체보다 신화를 먼저 소비하는가