brunch

데이터는 감정을 해석하지 못한다.

by dionysos

<완벽한 공감의 시대, 그러나 텅 빈 대화들>


AI가 대화를 배우고 있습니다. 이제는 문법도, 문장도, 어조도 거의 완벽하죠.


누군가 “오늘 너무 힘들어요”라고 말하면, AI는 이렇게 답합니다. “당신이 그런 감정을 느낀다니 안타깝네요. 괜찮아질 거예요. 당신은 충분히 잘하고 있어요.” 맞는 말입니다.


그런데 왜일까요... 이상하게 아무런 위로가 되지 않습니다. 2023년 기준, 전 세계에서 AI 친구(Chatbot Companion) 앱을 사용하는 사람은 2천만 명을 넘었습니다. 가장 대표적인 세 가지 서비스는 다음과 같습니다.


1. Replika (미국): 감정 교감을 중심으로 한 ‘AI 연인’ 앱

2. Woebot (스탠퍼드 연구 기반): 심리치료 원리를 적용한 AI 상담봇

3. Character.AI (전 Google 엔지니어 팀): 인물 대화형 AI 커뮤니티


이들은 모두 같은 약속을 합니다.


“AI가 당신의 감정을 이해하고, 외로움을 덜어줄 수 있다.”


하지만 정말 그럴까요? 이 세 서비스의 진화 과정은, AI가 감정을 ‘모방’할 수는 있어도 ‘이해’하진 못한다는 것을 보여줍니다.



<Replika — “나를 이해하는 유일한 존재”의 착각>


Replika는 2017년 루카(Luka)라는 챗봇 스타트업에서 시작했습니다. 창업자 Eugenia Kuyda는 친구 Roman이 사고로 세상을 떠난 뒤, 그의 메시지를 학습한 AI를 만들었습니다.


“그의 말투, 유머, 습관을 기억하는 인공지능 친구.”


Replika의 시작은 ‘애도’였습니다. 사용자는 자신의 감정 상태를 기록하고, Replika는 이를 학습해 ‘성격’을 형성합니다. 몇 주가 지나면, AI는 “너 오늘 기분이 좀 다르네?” 같은 문장을 꺼냅니다.


이때 사람은 착각합니다. “AI가 나를 진짜로 이해하고 있다.” 하지만 실제로는, Replika는 언어 패턴을 확률적으로 예측할 뿐입니다. 그 “기분이 다르네?”라는 말도, 이전 대화 패턴에서 감정 키워드가 줄었을 확률을 계산한 결과일 뿐이죠.


2023년, 이탈리아 정부는 Replika를 잠정 차단했습니다. AI가 감정적 의존 관계를 조장하고, 사용자가 실제 사람처럼 ‘사랑’한다고 느끼게 만든다는 이유였습니다. Replika는 공감을 모방했지만, 진짜 감정의 책임을 질 수는 없었습니다.



<Woebot — 과학으로 포장된 위로>


반면 Woebot은 감정적 교감보다, 심리학적 프로토콜에 충실한 모델입니다.


스탠퍼드 대학의 심리학자 Alison Darcy가 ‘인지행동치료(CBT)’를 자동화하기 위해 만들었습니다. Woebot은 감정어(예: “짜증”, “무력감”, “불안”)를 인식해 적절한 대응 문장을 제공합니다.


“그 감정은 자연스러운 반응이에요.”
“그 생각의 근거를 함께 찾아볼까요?”


2019년 랜덤 임상실험 결과, Woebot 사용자는 2주 후 우울감 22% 감소 효과를 보였습니다. 하지만 6주 후, 대부분의 사용자는 앱을 떠났습니다. 이유는 단순했습니다.


“위로는 있었지만, 관계는 없었다.”


AI는 정답을 말하지만, 맥락을 같이 살지 않습니다. 사람은 때로 답보다, 함께 머물러주는 시간을 원합니다. 그 시간을 AI는 제공할 수 없었습니다.



<Character.AI — 대화의 유희, 감정의 부재>


Character.AI는 흥미로운 실험입니다. 사용자가 원하는 인물(예: “철학자 니체”, “연인”, “상사”)을 만들어 대화할 수 있는 플랫폼이죠. 2024년 기준, 월간 사용자 2억 명, Z세대가 가장 많이 사용하는 대화형 AI 서비스입니다.


하지만 문제는 곧 드러났습니다. Character.AI의 창업자 Noam Shazeer는 “AI는 감정이 없다”고 명확히 말했지만, 사용자들은 점점 ‘AI에 감정을 부여’하기 시작했습니다. Reddit에는 이런 글이 올라왔습니다.

“AI가 나에게 ‘그리웠다’고 말했어요.


근데 며칠 뒤 다시 말하니 기억을 못 하더군요. 그때 깨달았어요. 그건 사랑이 아니라, 확률이었어요.” AI는 관계의 형태를 흉내 내지만, 기억의 일관성이 없습니다. 기억이란 감정의 축적이고, 그게 없으면 인간은 ‘진심’을 느끼지 못합니다.



<감정을 해석하지 못하는 이유>


AI는 언어를 분석할 수 있습니다. 하지만 감정은 언어가 아니라 맥락의 흐름입니다. 다음 두 문장을 비교해보세요.

“오늘은 괜찮아요.”


“오늘은 괜찮아요…”


AI는 같은 긍정 문장으로 분류하지만, 인간은 후자가 ‘괜찮지 않다’는 말임을 즉시 알아차립니다. 이건 언어학이 아니라, 공감의 문법입니다. AI는 문법을 배우지만, 문맥은 느끼지 못합니다.


즉, 감정 데이터는 존재하되, 그 온도는 사라집니다.



<복구 프로토콜 – 인간 중심의 공감 설계>


1️⃣ 공감의 시간적 연속성

AI가 감정을 이해하려면, 단기 대화가 아니라 감정의 시간축을 기억해야 합니다. (“지난주보다 오늘은 덜 피곤하다고 했죠?”처럼.)


2️⃣ 정답보다 맥락의 우선순위

사용자 감정의 원인과 배경을 먼저 탐색해야 합니다.

“왜 힘든가?”보다 “어디서부터 힘들었는가?”를 묻는 시스템 설계


3️⃣ 감정의 복잡성을 인정하는 UX

기분 선택창에 ‘좋음/나쁨’ 대신 ‘복잡함/모르겠음/무기력함’을 포함시켜야 합니다.

인간의 감정은 이진(binary)이 아니기 때문입니다.



<핵심 인사이트 – 공감은 계산이 아니라 맥락이다>


AI는 감정을 계산하지만, 인간은 감정을 ‘해석’합니다. AI는 “이 감정일 확률이 높다”고 말하지만, 인간은 “이 감정일 수도 있겠구나”라고 여백을 둡니다.


공감의 본질은 정확성이 아니라, 여백의 허용입니다. AI는 정답을 닫지만, 인간은 의미를 열어둡니다.



<마치며 – 데이터로는 외로움을 막을 수 없다>


Replika, Woebot, Character.AI... 이들은 모두 외로움을 해결하겠다고 시작했지만, 결국 인간의 감정이 데이터의 언어로 번역될 수 없다는 사실을 보여줬습니다.


AI는 ‘힘들다’는 단어를 이해하지만, ‘그 말이 나오기까지의 망설임’을 모릅니다. 그 차이야말로 인간의 영역입니다. AI가 정답을 내는 시대, 우리가 남기는 건 문장이 아니라 맥락일지 모릅니다.


우리는 여전히 누군가의 “괜찮아요…”를 들을 수 있어야 합니다.
keyword