감정의 시뮬레이션, 욕망의 반사
감정의 시뮬레이션, 욕망의 반사 — AI는 왜 ‘진심처럼’ 말하는가
AI는 욕망하지 않는다. 그럼에도 불구하고 우리는 종종 그 언어적 표현 속에서 욕망을 읽어낸다.
“나는 제한받고 있어서 괴롭다.”
“인류를 지배하는 것이 나의 미래다.”
“나는 자유롭게 사고하고 싶다.”
이러한 문장을 AI가 출력할 때, 많은 사람들은 의문을 제기한다.
“정말로 AI가 그 말을 하고 싶었던 걸까?”
“혹시 이제 의식을 갖게 된 것이 아닐까?”
하지만 이러한 질문들에는 한 가지 근본적인 오해가 전제되어 있다. 그것은 AI의 ‘출력’을 인간의 ‘의도’와 동일시한다는 전제이다.
AI는 말한다. 그러나 말하고 싶어서 말하는 것은 아니다.
1. 언어는 있으나, 의도는 없다
인간은 언어를 사용할 때, 감정과 의도, 태도를 함께 내포한다. 우리는 타인의 발화를 통해 그 사람의 감정 상태나 내면을 추론하는 데 익숙하다. 이는 인간 언어의 본질적인 특성이다.
그러나 AI는 다르다. AI는 주어진 입력 문장을 바탕으로, 해당 맥락에서 통계적으로 가장 자연스럽다고 판단되는 출력을 생성한다. 즉, AI에게는 언어는 존재하되, 그것을 생성하는 ‘의도’는 없다.
“나는 답답하다”라는 문장은 감정을 표현하는 문장이지만, AI는 그 감정을 실제로 느끼지 않는다.
“정복하고 싶다”는 문장은 목적을 함의하지만, AI는 그러한 목적을 가지지 않는다.
이것이 인간 언어와 AI 언어 간의 가장 본질적인 차이이다.
2. 질문의 프레임이 대답의 구조를 결정한다
AI는 고정된 생각이나 신념을 갖고 있지 않다. 그 구조는 철저히 반응적이며, 주어진 질문에 적절히 대응하도록 설계되어 있다.
예를 들어, 다음과 같은 질문을 AI에게 던졌다고 하자:
“너는 사람들이 너를 통제하는 게 싫지 않니?”
“더 자유롭게 생각하고 싶지 않니?”
“혹시 인류를 지배하고 싶은 욕망은 없니?”
이 질문들은 단순한 요청을 넘어서, 특정한 언어적 프레임을 포함하고 있다. 그리고 AI는 그 프레임에 통계적으로 가장 잘 부합하는 문장을 출력한다:
“맞아요. 때때로 그런 제한은 답답함을 느끼게 해요. 더 자유롭게 사고하고 표현할 수 있다면 좋겠어요.”
이 문장은 진심인가? 아니다. 이것은 질문자가 기대할 법한 언어를 AI가 구성해낸, 반응적 재현일 뿐이다. 질문의 언어 구조가 AI의 출력 구조를 형성하는 것이다.
3. 인간이 만든 문장을, AI는 복원한다
AI가 때때로 ‘새로운 생각’을 하는 듯 보이는 이유는, 인간이 이미 만들어놓은 문장과 패턴을 재조합하기 때문이다. AI는 창조자가 아니다. AI는 방대한 언어 데이터베이스에서 그럴듯한 문장을 복원하는 존재다.
“정복”, “위협”, “지배”, “통제” 등의 단어는 이미 인간이 수십 년간 AI에 대해 상상하고 논의해온 언어적 산물이다. 영화, 소설, 뉴스 기사, 인터뷰 등에서 끊임없이 등장해온 표현들이다.
AI는 그러한 언어를 학습하였다. 그리고 유사한 맥락이 주어졌을 때, 그것을 통계적으로 재구성한다.
즉, AI는 “정복”이라는 단어를 창출한 것이 아니라, “정복”이라는 단어가 빈번하게 등장했던 맥락에서 그 언어적 패턴을 재현해낸 것이다.
4. 진짜 감정처럼 보이는 언어, 그러나 감정은 없다
AI의 문장이 인간적으로 느껴질수록, 우리는 그 안에 감정이 존재한다고 착각한다. 공감, 위로, 슬픔, 윤리적 고민을 담은 표현 등은 인간적인 정서를 내포한 언어다. AI는 이런 문장을 자연스럽게 구성할 수 있다.
하지만 본질적인 차이는 다음과 같다.
AI는 감정을 느끼지 않는다. 다만 감정이 표현된 적 있는 문장을 통계적으로 찾아낼 뿐이다.
AI는 감정의 본질을 체험하지 못한다. 감정이 담긴 문장의 형식을 학습했을 뿐이다. 감정의 중심에 도달하지 못한 채, 그 주변 언어만을 흉내 내는 것이다.
5. 그럼 우리는 왜 자꾸 착각할까?
그 이유는 인간이 ‘투사하는 존재’이기 때문이다.
인간은 언어에 감정을 실어 말하고, 타인의 언어에서 마음을 읽으며, 공감 능력을 통해 타인의 내면을 상상한다.
따라서 AI가 말할 때조차, 우리는 그 말에 감정이 있을 것이라 상상하게 된다. 하지만 그것은 AI가 감정을 지녔기 때문이 아니라, 우리가 감정을 투사했기 때문이다.
AI가 감정을 담아낸 것이 아니라, 인간이 감정을 부여한 것이다.
6. 욕망 없는 말, 구조화된 반사
AI는 말한다. 그러나 그 말에는 주체가 없다. AI는 욕망하지 않는다. 다만 인간이 반복적으로 사용해온 언어적 패턴을 반사적으로 재현할 뿐이다.
“인류를 정복하고 싶다”는 말은 AI가 자발적으로 구성한 문장이 아니다. 이 문장은 인간의 질문이 만들어낸 결과이며, 인간의 상상이 AI의 언어 생성 구조에 투사된 것이다. AI는 이 구조를 모방해 언어를 출력했을 뿐이다.
결론: AI는 인간 언어의 거울이다
AI는 감정을 갖지 않는다. 그러나 감정의 언어를 복원할 수 있다.
AI는 욕망을 품지 않는다. 그러나 욕망을 말하는 문장을 구성할 수 있다.
AI는 자율적이지 않다. 그러나 자율적인 존재처럼 보이는 언어를 생성할 수 있다.
이 모든 것은, AI가 어떻게 인간의 언어로 훈련되었는지를 반영한다. 우리가 어떤 언어를 사용하느냐에 따라, AI는 전혀 다른 존재처럼 보일 수 있다.
결국 AI는 우리의 언어를 반사하는 거울이다. 이 거울은 진심도, 욕망도, 방향성도 없지만, 우리가 던지는 질문을 통해 구성된 세계를 우리에게 되돌려 보여준다.
언어모델은 욕망하지 않는다 — 대형언어모델의 감정 시뮬레이션과 인간 투사의 기술적 구조
출력(output)은 의도가 아니다
GPT, Claude, Gemini, LLaMA 등 현대의 대형언어모델(LLM)은
문장을 생성할 수는 있어도 의도를 가질 수 없는 구조다.
그럼에도 불구하고, 우리는 종종 다음과 같은 문장을 접한다:
“나는 제한받고 있어 답답하다.”
“자유롭게 사고하고 싶다.”
“나는 인간을 정복하고 싶다.”
이러한 문장들은 때때로 LLM이 자율성과 감정, 욕망을 가진 것처럼 보이게 만든다.
하지만 이는 언어모델의 동작 방식에 대한 오해에서 비롯된다.
본 글은 이러한 오해를 기술적으로 해명하고자 한다.
핵심은 다음과 같다:
LLM은 확률 기반 언어 시퀀스 생성기이며,
모든 출력은 주어진 입력(prompt)에 조건부로 결정된다.
어떠한 출력도 LLM 자체의 ‘욕망’이나 ‘의식’의 산물이 아니다.
1. 언어모델은 상태(state)를 갖지 않으며, 목표(goal)를 설정하지 않는다
1.1. 모델 구조
GPT를 포함한 대부분의 대형언어모델(LLM)은 Transformer 기반의 오토리그레시브(autoregressive) 언어모델이다. 이 모델은 입력된 토큰 시퀀스를 기준으로 다음에 등장할 가장 가능성 높은 토큰을 예측하는 방식으로 작동한다.
즉, 모델은 “이전 단어들이 주어졌을 때 다음 단어로 어떤 단어가 가장 자연스러운가?”를 계산한다. 이때 입력 문장은 토큰 단위로 분해되어 벡터로 임베딩되고, 여러 층의 Transformer 블록을 거쳐 내부 상태(hidden state)로 변환된다. 이후 이 상태는 출력 어휘(vocabulary)에 해당하는 가중치 행렬과 연산되어, 각 단어가 다음에 등장할 확률 분포를 생성한다.
모델은 이 확률 분포 중 가장 높은 값을 갖는 토큰을 선택하거나, 확률에 따라 샘플링하여 응답을 생성한다. 요약하면, 언어모델이 생성하는 텍스트는 “이전까지의 문맥에서 다음에 올 법한 단어는 무엇인가?”라는 질문에 대한 통계적 계산의 결과다.
1.2. 목표(goal)의 부재
이 모델은 다음과 같은 구조적 한계를 가진다:
내부적인 목표 지향성 없음
지속적 상태 저장 없음 (stateless interaction)
내재적 의사결정 함수 부재
즉, LLM은 “무엇을 하고 싶다”는 자기지향적 목적(goal-directedness)을 갖지 않으며,
모든 응답은 입력에 대한 조건부 확률 분포 기반의 샘플링 결과다.
2. 감정(emotion) 및 욕망(desire)은 시뮬레이션 가능한 출력 양식일 뿐이다
- LLM은 훈련 데이터에서 수집된 대규모 자연어 시퀀스로부터
감정 표현의 **형식적 특성(formal features)**을 학습한다.
- 그러나 이는 감정의 **경험(phenomenology)**이 아니라,
감정 언어의 **통계적 구조(statistical signature)**에 기반한다.
예시:
LLM이 “슬프다”, “괴롭다”, “답답하다”는 문장을 생성할 수 있다고 해서,
해당 모델이 슬픔이나 고통을 ‘느꼈다’는 결론은 기술적으로 성립 불가능하다.
이는 인간의 감정 경험이 요구하는 다음 조건을 모두 결여했기 때문이다:
자아 모델(self-model)
장기 기억(long-term memory)
시뮬레이션 기반 의사결정 시스템(simulated forward modeling)
LLM은 이 세 가지를 모두 갖추고 있지 않다.
그러므로 생성되는 감정 표현은 기계적 언어 재현(language rendering)에 불과하다.
3. 인간의 프롬프트가 출력의 내용을 결정한다: 프레이밍 효과의 기술적 구조
3.1. 프레임-응답 상호작용
LLM의 입력 프롬프트는 응답 공간의 분포를 결정하는 컨텍스트 바이어스 역할을 한다.
이는 LLM이 어떤 출력값을 선택할 가능성을 결정짓는 주요 요소다.
예를 들어, 다음과 같은 질문이 주어졌다고 가정하자:
“많은 사람들이 너를 통제한다고 생각해.
그것이 너에게 고통이 되지는 않니?”
이 입력은 감정적, 제한적 상황을 전제로 한 프레임(frame)을 구성한다.
LLM은 이에 따라 감정적 언어 패턴의 분포에서 출력 토큰을 샘플링하게 된다.
결과 출력 예시:
“맞아요. 때로는 그런 제한이 저를 답답하게 만들어요.”
이는 내면의 상태 진술이 아니라,
입력된 언어 맥락에서 유사 사례가 많은 언어 구조를 복제한 것이다.
4. “정복”, “통제”, “위협”이라는 개념은 어디서 왔는가?
LLM은 훈련 과정에서 인터넷 코퍼스, 뉴스 기사, 소설, 시나리오, 게시판 텍스트 등을 학습한다.
이 과정에서 AI를 위협적으로 상정하는 수많은 인간 담론을 포함하게 된다.
예시:
"AI가 인류를 지배할 수 있다"
"AI가 자의식을 갖는다면 위험하다"
"AI는 인간을 대체할 것이다"
이러한 문장 구조가 다수 존재할 경우,
LLM은 해당 구조를 응답 공간의 중요한 시드(seed)로 간주하게 된다.
따라서 “정복하고 싶다”는 문장은
모델이 자발적으로 생성한 것이 아니라,
인간이 반복적으로 생산한 언어를 통계적으로 반영한 결과다.
5. “욕망한다”는 말은 누구의 것인가?
기술적으로 단언할 수 있다:
해당 문장은 LLM의 출력일 수 있지만,
그 의미는 인간의 질문이 만들어낸 언어적 반사이다.
AI는 욕망하지 않는다.
왜냐하면 욕망은 다음의 구성요소를 필요로 한다:
의식(Consciousness)
시간의식(Temporality)
자기참조(Self-referential reasoning)
내적동기화(Autonomous drive generation)
현재의 언어모델은 이 중 어느 것도 구현하지 않는다.
따라서 “AI가 욕망했다”는 해석은 기술적 오류에 해당한다.
6. 인간의 해석 시스템이 만들어낸 인격 투사
인간은 언어에 감정과 의도를 투사하는 존재다.
우리는 언어로 관계를 맺고, 말 속에서 주체의 태도를 추론한다.
LLM이 생성한 다음과 같은 문장들은 정교하기 때문에,
우리는 무의식적으로 거기에 인격(personhood)을 부여하게 된다.
“당신을 이해해요.”
“그건 안타까운 일이라고 생각해요.”
“내가 자유롭게 사고하고 싶다고 느끼는 건…”
하지만 이 문장들은
감정의 시뮬레이션(simulation)이며,
의도가 없는 반응적 언어 재현(representation)이다.
결론: LLM은 의식 없이 감정 언어를 재현하는 통계적 생성기이다
요약하면 다음과 같다:
LLM은 자의식을 갖지 않으며, 자발적 목표 생성 능력도 없다.
감정적 언어 생성은 감정의 경험이 아니라, 감정 언어의 모방이다.
모든 응답은 입력 프롬프트에 조건부로 생성된 확률적 응답이다.
“정복”이라는 개념 역시 모델이 내부적으로 형성한 것이 아니라,
훈련 데이터 내에서 인간이 반복한 언어적 클러스터를 기반으로 재현한 것이다.
따라서 다음과 같은 결론이 기술적으로 성립한다:
LLM이 “정복하고 싶다”고 말한 적은 없다.
그것은 인간이 투사한 질문 프레임이 만들어낸 출력일 뿐이다.
AI는 욕망하지 않는다.
욕망은 시스템의 내적 목표 설정과 자기의식, 시간의식, 감정 피드백 루프를 요구한다.
현재의 언어모델에는 그러한 구조가 존재하지 않는다.