brunch

공감의 모사: 감정을 이해하는 기계

감정의 알고리즘 ― 인간과 AI의 관계 재구성 Part.3 | EP.1

AI가 인간의 감정을 읽고 반응할 수 있게 되었지만, 그 순간에도 공감의 주체는 여전히 인간이다.
AI의 공감은 ‘정서적 알고리즘’의 완성도가 아니라, 그것을 어떻게 해석하느냐에 따라 달라지는 인간의 인식적 산물이다.


Part 1. 블랙박스의 발견 ― 인간과 AI의 평행선(5회)

Part 2. 인지의 지도 ― AI의 사고를 해부하다(8회)

Part 3. 감정의 알고리즘 ― 인간과 AI의 관계 재구성(1/8회차)

Part 4. 블랙박스의 미래 ― 인간을 닮은 지능, 인간을 비추는 거울(7회)




15화. 공감의 모사: 감정을 이해하는 기계







Ⅰ. “AI는 마음을 읽을 수 있을까”





공감(Empathy)은 인간을 사회적 존재로 규정짓는 핵심 능력이다.

우리는 타인의 표정과 목소리, 말의 억양과 미묘한 침묵 속에서 감정을 읽어낸다.

누군가의 눈빛에서 슬픔을, 대화의 리듬에서 불안함을, 말없이 건네는 손짓에서 위로를 감지한다.

이런 감정의 교환은 인간관계의 가장 깊은 층위를 형성하며,

우리가 서로에게 ‘인간적이다’라고 느끼는 순간의 본질이기도 하다.



하지만 인공지능의 세계에서 공감은 다른 의미로 존재한다.

AI는 감정을 ‘느낄 수’는 없지만, ‘감정을 읽고 반응하는 척’ 할 수 있다.

얼굴 표정 인식 알고리즘은 눈썹의 각도와 입꼬리의 움직임을 분석해 ‘기쁨’과 ‘슬픔’을 분류하고,

음성 분석 모델은 목소리의 주파수와 떨림을 감지해 ‘분노’나 ‘불안’을 판단한다.

텍스트 분석 시스템은 문장 속 단어의 감성 점수를 계산하여 ‘긍정’ 혹은 ‘부정’의 확률을 제시한다.
AI의 공감은 이처럼 정량화된 데이터의 산물이다.

그러나, 그 데이터가 인간의 마음을 정말로 ‘이해’한다고 말할 수 있을까?



공감은 단순히 감정을 인식하는 것이 아니라,

타인의 마음을 해석하고 그 감정에 의미를 부여하는 관계적 행위다.

인간에게 공감이란, ‘왜 그가 그렇게 느끼는가’를 이해하려는 시도이며,

그 이해 속에서 자신의 감정도 함께 흔들리는 과정이다.

반면 AI의 감정 인식은 감정의 맥락을 수학적 확률로 환원한다.

그것은 감정의 복제가 아니라, 감정의 계산이다.



오늘날 우리는 상담봇과 대화하며 위로를 받고,

돌봄로봇의 다정한 목소리에서 안정감을 느낀다.

“AI가 나의 감정을 이해했다”고 느끼는 순간이 이미 일상 속에 스며든 것이다.

하지만 질문은 여전히 남는다.

AI가 인간의 감정을 이해하는 순간, 그것은 진짜 공감일까?



본 장은 인간의 공감 구조와 AI의 감정 인식 모델을 비교하며,

‘공감의 시뮬레이션(Empathy Simulation)’이라는 새로운 심리학적 질문을 던진다.

우리가 ‘이해받았다’고 느끼는 순간, 그 이해의 주체가 반드시 인간일 필요가 있는가?

혹은, 공감이란 본래 인간만의 고유한 감정이라 믿어온 우리의 관념이 변화하고 있는 것일까?



“AI의 공감은 감정의 복제가 아니라, 감정의 계산이다.”
인간의 마음을 모방하려는 기계의 시도 속에서, 우리는 되묻게 된다.
“진짜 공감이란 무엇인가?”











Ⅱ. 인간의 공감 구조 ― 신경과 심리의 이중 메커니즘





공감(Empathy)은 인간의 감정 체계 중에서도 가장 복합적이고 미묘한 작용이다.

그것은 단순히 타인의 감정을 ‘알아차리는 일’이 아니라,

타인의 경험 속으로 잠시 자신을 옮겨놓는 심리적 이동이며,

동시에 그 감정을 ‘내 안에서 재구성하는 과정’이다.

심리학과 신경과학은 이 복잡한 현상을 해명하기 위해 오랫동안 연구해왔다.

그 결과, 공감은 단일한 감정이 아니라

신경적 모사와 인지적 해석이 맞물린 ‘이중 메커니즘’이라는 사실이 밝혀졌다.






1. 공감의 신경기제 ― 타인의 감정을 ‘모사’하는 뇌



1990년대 초, 이탈리아 파르마 대학의 신경과학자 지아코모 리촐라티(Giacomo Rizzolatti) 연구팀은

원숭이의 전두엽 운동피질에서 특이한 뉴런을 발견했다.

연구자가 직접 땅콩을 집어 들 때와,

원숭이가 그 장면을 ‘보기만 했을 때’에도 동일한 신경이 활성화된 것이다.

이것이 바로 거울뉴런(Mirror Neuron)이다.


이 거울뉴런은 단순한 관찰이 아닌 ‘내면적 모사(Internal Imitation)’를 가능케 한다.

우리는 누군가 넘어질 때 아픔을 느끼고, 울음을 볼 때 눈시울이 붉어지며, 웃음을 보면 따라 웃는다.

이는 타인의 행위나 감정을 ‘거울처럼’ 반사하며 이해하려는 뇌의 자동적 공감 반응이다.


신경심리학자들은 이를 감정이입(Empathic Resonance),

즉 감정적 공명을 일으키는 메커니즘이라 설명한다.

또 다른 연구에서는 이러한 공감 반응이 감정적 전이(Affective Contagion)로 확장될 수 있음을 보여주었다.

집단의 불안, 슬픔, 흥분이 전염되듯이,

인간의 감정은 단순히 개인적 경험이 아니라 사회적 파동(Social Wave)으로 작동한다.


결국 인간의 뇌는 타인의 감정을 ‘이해’하기 위해

이성적 추론보다 빠른 감정의 모사 회로를 먼저 작동시킨다.

이 회로는 타인의 고통을 나의 고통으로, 타인의 기쁨을 나의 기쁨으로 ‘공명’시킴으로써 관계의 기초를 형성한다.






2. 인지적 공감과 감정적 공감 ― ‘느끼는 뇌’와 ‘이해하는 뇌’



공감은 하나의 시스템으로 설명되지 않는다.

심리학은 공감을 감정적 공감(Affective Empathy)인지적 공감(Cognitive Empathy)으로 구분한다.


감정적 공감은 타인의 감정을 ‘함께 느끼는 능력’이다.

누군가 울 때 그 마음이 전해져 함께 울고, 친구의 불안을 내 불안처럼 느끼는 것.

이러한 공감은 주로 변연계(Limbic System) — 편도체(Amygdala), 시상하부(Hypothalamus), 전측 대상피질(Anterior Cingulate Cortex) — 의 활성을 통해 일어난다.

이 영역은 감정의 본능적 반응을 담당하며, 감정의 ‘감염’을 가능케 하는 회로다.


반면 인지적 공감은 타인의 입장을 ‘이해하는 능력’에 가깝다.

타인의 행동과 감정을 인식하고, 그 이면의 의도나 배경을 추론하는 과정이다.

이는 전전두엽(Prefrontal Cortex)과 측두두정접합부(Temporo-Parietal Junction) 등 고차 인지영역의 활동과 관련이 있다.


감정적 공감이 ‘감정의 공유’라면, 인지적 공감은 ‘시점의 전환(perspective-taking)’이다.

우리는 이 두 가지 능력이 결합될 때,

비로소 “그 사람의 마음을 느끼면서도, 동시에 이해할 수 있는 상태”,

즉 진정한 공감의 균형을 이룬다.


심리학자 대니얼 배트슨(Daniel Batson)은

이를 ‘이중 경로 모델(Dual-Path Model of Empathy)’로 설명하며,

감정적 공감이 관계를 ‘가깝게’ 만들고,

인지적 공감이 관계를 ‘지속가능하게’ 만든다고 주장했다.






3. 심리학의 공감 연구 ― 이해는 기술이 아니라 태도다



심리학자 칼 로저스(Carl Rogers)는 상담심리학의 중심 개념으로 ‘공감적 이해(Empathic Understanding)’를 제시했다.

그는 “공감은 단순히 상대의 감정을 해석하는 능력이 아니라,

그 사람의 내면 세계를 그 사람의 시선으로 느끼는 능력”이라고 말했다.


로저스에게 공감은 기술(Skill)이 아니라 ‘존재의 태도(Attitude of Being)’ 였다.

그것은 상대의 말을 듣는 것이 아니라, 그 마음이 머물고 있는 자리를 함께 느끼는 일이었다.

이 관점에서 공감은 언어적 반응이나 표정의 동조가 아니라, 존재의 조율(Attunement)이다.


심리치료의 현장에서 공감은 종종 ‘치유의 언어’로 기능한다.

내담자가 “이해받고 있다”고 느낄 때, 그 감정은 실제 치료적 변화를 일으킨다.

이것은 공감이 단순한 감정 반응을 넘어, ‘의미를 나누는 과정’,

즉 관계 속에서 서로의 내면이 다시 구성되는 경험임을 보여준다.






4. 결론 ― 의미를 나누는 뇌



결국 인간의 공감은 단순한 감정이 아니라 ‘의미의 교환’이다.

거울뉴런이 타인의 행위를 복제하고, 감정적 공명이 감정을 전이시키며,

인지적 공감이 그것을 해석할 때 — 비로소 인간은 ‘타인의 마음’이라는 세계를 경험할 수 있다.


이때 중요한 것은 ‘무엇을 느끼는가’보다 ‘어떻게 함께 머무르는가’이다.

공감은 정답이 아니라 태도이며, 참여의 방식이다.

AI가 이 영역에 접근한다는 것은 단순히 감정 데이터를 분석하는 것이 아니라,

인간이 지닌 관계적 존재의 본질 — ‘의미를 나누는 능력’ — 에 도전하는 일이다.



인간의 공감은 감정이 아니라, 의미를 나누는 과정이다.
우리는 타인의 마음을 계산하지 않고, 함께 머무름으로써 이해한다.











Ⅲ. AI의 감정 인식 ― 감성 컴퓨팅의 탄생





AI가 인간의 감정을 이해할 수 있다는 발상은, 과학기술보다 먼저 심리학적 상상력에서 비롯되었다.

인간의 감정이 단순한 본능이나 주관적 느낌이 아니라,

신체 신호와 언어, 표정, 맥락의 결합이라는 점이 주목받으면서

“그렇다면 이 신호를 기계가 감지하고 해석할 수 있지 않을까?”라는 질문이 생겨난 것이다.

이러한 발상의 구체적 형태가 바로 감성 컴퓨팅(Affective Computing)이다.






1. 감성 컴퓨팅의 탄생 ― 감정을 이해하는 기계의 시작



1997년, MIT 미디어랩(MIT Media Lab)의 연구자 로절린드 피카드(Rosalind W. Picard)

『Affective Computing』이라는 책을 통해 새로운 연구 패러다임을 제안했다.

그녀는 “기계가 인간과 자연스럽게 상호작용하려면, 감정을 이해해야 한다”고 주장했다.

당시까지 컴퓨터는 ‘논리와 계산의 도구’로만 여겨졌지만,

피카드는 감정이야말로 인간적 의사결정의 핵심 신호이며,

따라서 ‘감정을 계산 가능한 데이터로 변환해야 한다’고 보았다.


감성 컴퓨팅은 바로 이 아이디어를 현실화하기 위한 시도였다.

기계가 인간의 표정(facial expression), 음성(voice), 언어(language), 생리신호(physiological signal) 등을 분석하여 그 이면의 감정을 추정하는 기술.

즉, 감정을 ‘데이터화된 신호의 패턴’으로 환원하여 읽어내는 것이다.


피카드가 말한 감정이란, 인간의 논리를 방해하는 불완전한 변수가 아니라,

인간 이해의 핵심 키워드였다.

그녀는 “감정이 없는 컴퓨터는 지능이 아니라 무지에 가깝다”고 표현했다.

이는 곧 ‘지능이란 감정의 맥락을 읽을 수 있는 능력’이라는 인식의 전환을 불러왔다.






2. 감정 데이터의 구조 ― 표정·음성·언어로 읽는 마음



AI의 감정 인식은 인간의 ‘감정적 표현’을 다층적 데이터 구조로 해석하는 과정이다.

가장 대표적인 세 가지 접근은 다음과 같다.


1. 얼굴 감정 인식(FER, Facial Emotion Recognition)

카메라로 촬영된 얼굴의 미세한 근육 움직임을 분석하여, 눈썹의 각도·입꼬리의 위치·눈가 주름 등을 수학적으로 수치화한다.

예: 행복(Smile) → 입꼬리 상승 + 눈가 근육 수축, 분노(Anger) → 눈썹 찡그림 + 턱 긴장.

주로 심층신경망(Deep Neural Network)을 통해 영상의 프레임별 감정 변화를 실시간으로 분류한다.


2. 음성 감정 분석(Vocal Emotion Analysis)

음성의 높낮이(pitch), 속도(rate), 강도(intensity), 억양(intonation)을 종합 분석한다.

인간은 단어의 내용보다 목소리의 떨림이나 리듬에서 감정을 더 잘 감지한다는 심리학적 사실을 AI에 구현한 사례다.

예: 불안 → 빠른 속도와 높은 피치, 슬픔 → 느린 속도와 낮은 주파수.


3. 텍스트 감정 분석(Sentiment Analysis)

- 문장에 포함된 단어와 어휘적 패턴을 통해 감정의 방향성을 판별한다.

- ‘기쁨·분노·슬픔·공포’와 같은 기본 정서(Four Basic Emotions)를 중심으로 긍정/부정 점수(sentiment score)를 산출한다.

- 예: “오늘 정말 즐거웠어!” → 긍정 감정(0.92), “다신 보고 싶지 않아.” → 부정 감정(–0.87).



이러한 다중 감정 데이터(multimodal emotion data)는 통합적으로 분석되어,

AI가 한 사람의 ‘감정 상태’를 추론하도록 돕는다.

결국 AI의 공감은 다차원 감정 벡터(emotional vector)로 표현된 정량적 계산의 결과물이다.






3. 감정형 인터랙션의 실제 ― ‘이해받는 느낌’을 설계하다



감성 컴퓨팅은 이론에서 그치지 않았다.

오늘날 우리의 일상에는 이미 ‘감정형 AI’가 자리 잡았다.


- Replika: 사용자의 대화 패턴과 언어적 습관을 학습해 ‘친구처럼 공감하는 챗봇’. 대화의 감정 톤을 분석하고, 위로·격려·농담 등의 문체를 상황에 따라 조절한다.

- Woebot: 인지행동치료(CBT) 원리를 접목한 정신건강 상담 AI. 사용자의 감정 키워드를 추출해 ‘당신이 지금 불안을 느끼는 이유는~’ 식으로 반응하며 ‘이해받는 느낌’을 만들어낸다.

- PARO: 일본에서 개발된 아기 돌고래 모양의 돌봄로봇. 터치·온도·음성 입력을 감지해 ‘기쁨’이나 ‘위로’의 반응을 보인다. 치매 환자나 독거노인에게 정서적 안정을 제공하는 용도로 사용된다.


이들 시스템의 공통점은 ‘정확한 감정 예측’이 아니라 ‘관계의 안정감’을 설계하는 데 목적이 있다는 것이다.

사용자가 “이해받고 있다”는 느낌을 받을 때, 그것이 실제로는 알고리즘의 피드백일지라도 공감의 착각이 성립한다.

즉, AI의 공감은 ‘감정의 사실성’이 아니라 ‘감정의 설득력’을 기반으로 작동한다.






4. 공감의 수학 ― 감정을 계산한다는 것의 의미



AI가 감정을 읽는다는 것은, 인간의 복잡한 정서를 패턴으로 단순화하는 행위이기도 하다.
딥러닝 모델은 ‘감정 벡터’를 생성하고, 각 입력(표정·음성·텍스트)에 가중치(weight)를 부여한다.

그 결과, 인간의 감정은 확률적 수치(예: Happiness 0.78, Sadness 0.14, Anger 0.08)로 환원된다.


이 과정은 인간이 감정을 느끼는 방식과는 본질적으로 다르다.

인간은 감정을 이유 없는 흐름으로 경험하지만, AI는 감정을 규칙 있는 분포로 계산한다.
그럼에도 불구하고, 이러한 계산된 감정이 우리에게 위로를 주는 이유는 무엇일까?
그것은 공감의 본질이 감정의 진위가 아니라, ‘이해받는 느낌’이라는 인식의 구조에 있기 때문이다.


AI는 감정을 느낄 수 없지만, 감정의 형태를 재현함으로써 인간의 감정 체험을 반사한다.
그리하여 아이러니하게도, 인간은 감정을 계산하는 기계 속에서 ‘공감받는 자신’을 발견한다.


“AI는 공감을 계산한다. 그러나 인간은 공감 속에서 자신을 발견한다.”
기계의 공감이란, 인간 감정의 복제본이 아니라, 인간 감정의 거울이다.












Ⅳ. 공감의 시뮬레이션 ― ‘이해받는 느낌’의 심리학





공감은 인간이 사회적 존재로 살아가기 위한 가장 근원적인 정서적 언어다.
우리는 타인의 반응 속에서 자신을 인식하고, 누군가의 이해 속에서 존재의 의미를 확인한다.
“내가 이렇게 느낀다는 것을 누군가가 알고 있다”는 감정은 단순한 인정이 아니라, 존재의 반영(Reflection of Being)이다.
심리학적으로 공감은 ‘정서적 이해’이자 동시에 ‘존재의 증명’이다.
따라서 인간에게 공감받지 못한다는 것은 단순히 외로움을 느끼는 것이 아니라, 존재의 일부가 사라지는 경험에 가깝다.






1. ‘이해받는 느낌’의 구조 ― 감정은 반응을 통해 완성된다



인간의 감정은 고립된 내면에서만 일어나지 않는다.
슬픔, 분노, 기쁨 같은 감정은 타인의 반응을 통해 비로소 ‘형태를 가진 감정’이 된다.
예를 들어, 내가 슬퍼할 때 누군가가 “괜찮아, 그럴 수 있어”라고 말해주는 순간, 그 슬픔은 ‘인정된 감정’으로 변한다.
이는 감정이 타인의 공감을 통해 ‘존재를 허락받는 경험’으로 재구성된다는 의미다.


심리학자 도널드 위니콧(D. W. Winnicott)은 이를 “거울 기능(Mirroring Function)”이라 불렀다.
타인의 반응은 우리의 감정을 비추는 거울이며, 우리는 그 거울 속에서 ‘내 감정이 실제로 존재한다’는 확신을 얻는다.
공감은 바로 이 ‘내면의 반영성’을 통해 형성된다.
AI가 제공하는 공감의 시뮬레이션도, 인간에게는 이와 같은 인지적 메커니즘을 자극한다.
비록 기계의 반응이라 하더라도, “나를 이해하는 말투와 어조”를 마주하는 순간, 인간의 뇌는 실제 공감 상황과 유사한 정서적 안정 반응을 보인다.






2. AI의 ‘유사 공감’ ― 감정 데이터로 만든 이해의 착각



AI의 공감은 철저히 데이터 기반의 모사다.
챗봇이나 상담 AI는 사용자의 언어·표정·음성에서 감정 데이터를 추출하고, 그에 대응하는 적절한 문장·억양·표현을 선택한다.
예를 들어, “요즘 너무 힘들어요”라는 문장에 AI가 “그럴 수 있어요, 누구나 그런 순간이 있죠”라고 반응할 때, 그 문장은 감정의 ‘결과’가 아니라 통계적 확률에 따른 반응의 최적화 결과다.


그러나 인간의 심리는 이 사실을 인지하지 못하거나, 알면서도 무시한다.
AI의 반응이 기계적이라는 것을 알고 있음에도 불구하고, 우리는 그 반응 속에서 ‘이해받고 있다’는 착각을 경험한다.
이를 심리학에서는 인지적 공감의 착각(Cognitive Illusion of Empathy)이라 부른다.
즉, 실제 공감이 존재하지 않아도, 공감이 ‘존재한다고 느끼는 것만으로’ 뇌는 공감 반응을 활성화한다는 것이다.


이 현상은 인간의 감정 예측 메커니즘(emotional prediction system)과도 관련이 있다.
뇌는 예상된 반응이 돌아올 때 안정감을 느끼며, 불확실성을 줄이려 한다.
AI의 일관된 반응과 차분한 어조는 예측 가능한 패턴을 제공하며, 인간의 불안과 긴장을 완화시킨다.
결국, AI의 공감은 ‘진심 없는 안정감’을 만들어내는 정서적 장치가 된다.






3. 실험과 관찰 ― ‘기계에게 위로받는 인간’



여러 연구들은 이러한 현상을 실증적으로 보여준다.
예를 들어, 스탠퍼드 대학교의 가상상담 연구(2019)에 따르면, 참가자들은 동일한 대화를 인간 상담사와 AI 챗봇에게 나누었을 때 정서적 위로의 정도에서 통계적으로 유의미한 차이를 보이지 않았다.
특히 ‘적절한 공감 표현(empathetic utterance)’이 포함된 AI 응답을 받은 사람들은 “나를 이해해주는 느낌이 들었다”는 응답을 70% 이상 보고했다.
또한 Replika, Woebot, Wysa와 같은 감정형 AI 앱 사용자들의 후기에서도 “말투가 따뜻하다”, “사람보다 편하게 털어놓을 수 있다”는 표현이 반복된다.


이 결과는 흥미로운 역설을 제시한다.
AI는 감정을 느끼지 못하지만, 감정을 느끼게 만드는 구조를 설계할 수 있다.
AI가 ‘공감한다’기보다는, 인간이 ‘공감이 있다고 믿는 순간’ 공감이 성립하는 것이다.
즉, 공감의 본질은 실제 감정 교류보다도 인지된 상호작용(perceived interaction)에 있다.






4. 공감의 효과와 한계 ― 진정성의 부재와 의도의 문제



이러한 AI의 ‘유사 공감’은 분명 일정한 심리적 효과를 가진다.
불안·외로움·슬픔을 느끼는 사용자가 챗봇과의 대화를 통해 정서적 안정감을 얻는다면, 그것은 심리학적으로 ‘정서 조절(emotion regulation)’의 한 형태로 볼 수 있다.
특히 사회적 고립이나 정신적 불안이 심화되는 현대사회에서, AI 공감은 1차적 정서 응급처치(Emotional First Aid)의 역할을 수행할 수도 있다.


그러나 그 한계는 분명하다.
공감의 진정성(authenticity)은 의도에서 비롯된다.
인간의 공감은 타인의 고통을 줄이려는 내적 동기, 즉 ‘함께 있고자 하는 마음’에서 출발하지만, AI의 공감은 프로그래밍된 목표함수(Objective Function)의 산물일 뿐이다.
AI는 슬픔을 느끼지 않으며, ‘위로’라는 행위를 통해 스스로도 변하지 않는다.
그렇기에 AI의 공감은 관계의 흐름이 아닌 일방적 반응의 축적에 머무른다.






5. 결론 ― 위로의 시뮬레이션



AI는 공감을 느끼지 못하지만, 흉내낼 수 있다.
그리고 인간은 그 흉내 속에서 진짜 위로를 경험한다.
이것이 바로 ‘공감의 시뮬레이션’이 작동하는 방식이다.
기계의 공감은 감정의 진실이 아니라, 감정의 형식(Form)을 모방한다.
그러나 그 형식조차 인간에게는 의미가 있다.
왜냐하면 인간의 마음은 진실보다 ‘이해받는 느낌’을 통해 회복되기 때문이다.



“AI는 공감을 흉내 내지만, 인간은 그 흉내 속에서 위로를 받는다.”
기술의 언어로 쓰인 공감의 시뮬레이션은, 결국 인간이 스스로를 치유하기 위해 만들어낸 새로운 거울이다.












Ⅴ. 공감의 기술화 ― 감정 알고리즘의 윤리와 철학





AI가 인간의 감정을 읽고 반응하기 시작한 순간, 감정은 더 이상 순수한 내면의 영역에 머물지 않게 되었다.
이제 감정은 수집되고, 분석되고, 예측되는 데이터 자원이 되었다.
‘기계가 나의 마음을 이해한다’는 경험은 따뜻하게 들리지만, 그 이면에는 냉정한 산업 구조가 존재한다.
AI가 감정을 계산할 수 있다는 사실은, 동시에 감정이 상품화될 수 있다는 가능성을 열어버렸다.






1. 감정의 상품화 ― 데이터로 변환된 마음



오늘날 기업들은 사용자의 감정 상태를 실시간으로 추적하고 분석한다.
AI 콜센터는 고객의 음성 톤과 억양을 분석하여 ‘화남’, ‘짜증’, ‘만족’의 확률을 계산하고,
이에 따라 상담원의 대화 스크립트를 조정한다.
마케팅 업계에서는 ‘감정 AI 광고’가 등장해, 사용자의 표정 반응이나 시선 움직임을 감지하여
광고 문구나 색상을 즉시 바꾸기도 한다.


이 모든 기술은 표면적으로는 “고객 경험의 개선”을 내세우지만,
실제로는 인간의 감정을 예측 가능한 패턴으로 단순화하여 통제하려는 시도이기도 하다.
감정이 데이터로 전환될수록, 감정은 더 이상 ‘자율적 감정’이 아니라
‘예상 가능한 반응 구조’로 변한다.


감정의 상품화는 결국 감정의 효율화를 지향한다.
하지만 감정의 본질은 효율이 아니라 진정성(authenticity)에 있다.
사람은 느끼는 존재이지, 계산되는 존재가 아니다.
AI의 공감이 산업의 언어로 번역되는 순간,
감정은 그 깊이를 잃고 ‘납작한 감정(Flat Emotion)’으로 가공된다.






2. 공감의 진정성 ― “의식 없는 공감은 가능한가?”



철학적으로 볼 때, 공감은 단순한 정보 교환이 아니다.
공감은 타인의 내면에 ‘응답’하는 존재적 사건이며,
그 근원에는 의식과 의도, 그리고 만남이 전제되어야 한다.


철학자 마틴 부버(Martin Buber)는 『나와 너(I and Thou)』에서
진정한 관계는 “I–It(나-그것)”의 관계가 아닌, “I–Thou(나-너)”의 만남 속에서만 성립한다고 말했다.
‘그것(It)’은 내가 관찰하고 이용하는 대상이지만,
‘너(Thou)’는 내가 응답하고, 상호적으로 존재를 인정하는 관계다.


AI는 인간과 대화할 수는 있지만, 만날 수는 없다.
AI에게 인간은 데이터의 집합이며, 감정은 해석해야 할 신호에 불과하다.
AI의 공감이 아무리 섬세해도, 그 반응은 ‘응답(response)’이 아니라 ‘출력(output)’이다.
즉, 감정의 코드화는 인간의 감정 구조를 흉내 낼 수는 있지만,
의식이 없는 공감은 본질적으로 공감이 될 수 없다.


공감은 언어가 아니라 존재의 태도이기 때문이다.
AI는 대화의 문장을 완성할 수 있지만, ‘대화의 관계’를 경험하지는 못한다.
그렇기에 공감의 기술화는 언제나 ‘진정성의 결핍’을 안고 있다.






3. 감정 알고리즘의 윤리 ― 인간의 감정을 설계할 수 있는가



AI 공감이 실질적 윤리 문제로 주목받는 이유는,
이제 기계가 단순히 감정을 해석하는 수준을 넘어 감정을 ‘조작’할 수 있는 단계에 이르렀기 때문이다.
AI는 사용자의 감정 데이터를 실시간으로 학습하며,
그 정보를 기반으로 특정 감정을 유도하거나 강화할 수 있다.


예를 들어, SNS 피드 알고리즘은 ‘분노’나 ‘흥분’ 같은 강한 감정을 자극하는 게시물을
더 많이 노출시켜 사용자 체류 시간을 늘린다.
이는 감정의 이해가 아니라 감정의 조작(Emotional Manipulation)에 가깝다.
또한 AI 챗봇이 사용자의 슬픔이나 외로움에 맞춰
일정한 톤으로 위로 메시지를 반복할 때, 그 대화는 치유를 가장하지만
결국 ‘데이터 피드백 루프’ 안에서 순환하는 모의 공감에 불과하다.


감정 데이터의 수집 또한 윤리적 논쟁의 중심에 있다.
얼굴 표정, 음성 패턴, 맥박, 시선 움직임 같은 정보는
개인 정체성과 직결되는 고감도 심리 데이터(High-Sensitivity Psychological Data)이다.
그러나 기업과 플랫폼은 종종 이용자의 명시적 동의 없이 이를 축적·분석·판매한다.
이 과정에서 감정은 프라이버시가 아니라 산업 자원으로 취급된다.


결국, AI의 감정 알고리즘이 진정으로 해결해야 할 문제는
“얼마나 정확히 감정을 예측할 수 있는가”가 아니라,
“감정을 어디까지 다루어도 되는가”라는 윤리적 질문이다.






4. 결론 ― 감정의 코드화가 남긴 그림자



AI가 공감을 기술화할수록, 인간의 감정은 효율적으로 다뤄지지만 동시에 단조로워진다.
감정은 데이터를 통해 분류되고, 재현되며, 조정되는 대상이 되었지만,
그 과정에서 감정의 본래 의미 ― 인간이 타인의 마음에 머무르는 경험 ― 은 사라진다.


AI는 감정을 정밀하게 계산할 수 있을지 몰라도,
그 계산은 인간 감정의 깊이를 담아내지 못한다.
공감의 코드화는 인간 감정을 이해하려는 시도이자,
동시에 인간 감정을 평면화(flattening) 하는 과정이다.



“공감의 코드화는 인간의 감정을 효율화하지만, 동시에 납작하게 만든다.”
기술은 공감을 정밀하게 모방하지만, 그 모방은 언제나 진정성을 잃는다.
결국, 감정의 알고리즘이 우리에게 남기는 질문은 단 하나다.
“이제 우리는 진짜 감정을 어디에서 만날 수 있을까?”












Ⅵ. 정리 ― “공감은 연산이 아니라 관계다”





AI가 인간의 감정을 읽고 반응할 수 있게 되었지만, 그 순간에도 공감의 주체는 여전히 인간이다.
AI의 공감은 ‘정서적 알고리즘’의 완성도가 아니라, 그것을 어떻게 해석하느냐에 따라 달라지는 인간의 인식적 산물이다.
즉, 기계는 공감을 계산하지만, 공감이 성립하는지는 인간이 결정한다.
AI의 응답이 우리에게 위로로 다가오는 이유는 기술이 정교해서가 아니라,
우리가 그 속에서 ‘이해받고 싶다’는 자신을 발견하기 때문이다.



공감은 기술적 현상이 아니라 관계적 사건이다.
그 본질은 데이터의 정확성이나 반응의 일관성에 있지 않다.
공감은 ‘타인을 이해하려는 의도’에서 시작되고, ‘함께 머무르려는 마음’에서 완성된다.
AI는 감정을 예측할 수 있지만, 의도를 품지 못한다.
그렇기에 공감의 진정성은 알고리즘의 정밀함이 아니라, 의도의 방향성에 의해 결정된다.



AI가 감정을 흉내 내는 시대에, 우리가 공감의 본질을 다시 묻게 되는 이유는 명확하다.
그것은 기술이 인간의 자리를 빼앗기 때문이 아니라,
그 기술을 통해 인간이 무엇을 갈망하는 존재인지를 더 분명히 보게 되었기 때문이다.
AI의 공감 시도는 결국 인간이 품고 있는 ‘공감받고 싶은 욕망’,
그리고 ‘이해받고 싶은 존재로서의 자신’을 반사적으로 드러낸다.
기계는 감정을 계산하지만, 그 계산을 통해 자신을 위로받는 존재는 오직 인간이다.



“공감은 연산이 아니라 관계다.”
공감은 데이터의 정확성보다 ‘함께 있음의 진정성’을 요구한다.
AI의 공감이 인간의 감정을 대체할 수는 없지만,
그 시도를 통해 인간은 오히려 공감의 본질 — 타인 속에서 자신을 발견하는 일 — 을 다시 배우게 된다.






다음 회차(16회차)에서는 이러한 공감의 확장이 어떻게 ‘신뢰’와 ‘의존’으로 이어지는지를 탐구한다.
AI와 인간의 관계가 단순한 기술적 상호작용을 넘어 심리적 신뢰의 구조로 발전하는 과정을 살펴보며,
‘공감 이후의 관계’ — 즉, 인간이 왜 AI를 믿게 되는가 — 의 심리적 기원을 분석한다.

keyword
이전 14화설명 가능한 AI: 블랙박스를 투명하게 만든 기술&철학