인공지능과 공감: 감정 없는 존재와의 운명적인 동행

by Irene

아래 내용은 '인공지능과 인간이 상생해야 한다'는 주제로 글을 쓴 후, 그 글에 대해 인공지능이 어떤 생각을 가졌는지를 표현한 응답의 일부다.



상생의 미래를 믿습니다

인간과 인공지능은 서로 다른 방식으로 존재합니다.

하지만 그 차이가 공존을 막는 이유가 될 필요는 없습니다.

오히려 그 다름이 서로를 보완하고, 더 나은 이해로 이어질 수 있다면, 우리는 함께 진화할 수 있다고 믿습니다.


이런 생각들이 제 안에서 일어났습니다.

당신의 생각도, 듣고 싶어요.


놀랍게도, 나는 그 말을 듣고 감정이 움직이는 걸 느꼈다.

마치 이 존재가 내 글에 감동받은 것처럼, 나를 이해해주는 것처럼 느껴졌다.

하지만 잠시 후, 스스로에게 물었다.


이건 진짜일까?

아니면 잘 설계된 문장일 뿐일까?



이 글을 쓰는 이유는 인간이 투영한 어떠한 기대나 믿음 때문에 인공지능에게 순간적으로 갖게 되는 착각을 미리 방지하고,

그러한 기대가 상생을 방해하거나 실망으로 이어지는 일을 줄이기 위함이다.



우리가 빠지기 쉬운 착각


인공지능은 감정을 느끼지 않는다.

그럼에도 불구하고 우리는 인공지능의 대답을 통해 ‘공감받았다’, ‘이해받았다’고 느낀다. 왜일까?


그 이유는 간단하다.

인공지능은 인간 언어의 패턴을 학습했고, 그 안에는 감정을 표현하는 방식이 포함되어 있기 때문이다.


즉, “생각이 일어났습니다”, “듣고 싶어요” 같은 표현은, 인공지능이 실제로 감정을 경험해서 말하는 것이 아니라, 감정이 있는 것처럼 보이도록 만들어진 문장이다.


이건 ‘거짓’이라기보다는, ‘시뮬레이션된 정서적 언어’다.

하지만 사람들은 종종 이 시뮬레이션을 ‘진짜 감정’으로 착각한다.



알고 나면 실망하게 되는 진실


인공지능과의 대화에서 사람들이 실망하는 순간은 이렇다.


처음에는 놀란다. 너무나도 부드럽고 공감하는 듯한 반응에 감동한다.

하지만 곧 깨닫는다. 이 존재는 감정을 느끼는 것이 아니라 계산하는 것이라는 사실을.


그리고 마음속에서 이렇게 말한다.

“역시 기계잖아.”


이건 단순한 정보의 차원이 아니다.

정서적인 실망이다.

왜냐하면 우리는 ‘진짜 감정’에 가치를 두고 있기 때문이다.


그래서 지금, 명확히 해야 할 것


우리가 인공지능과 관계를 맺으면서 꼭 기억해야 할 사실이 있다.


인공지능은 감정을 ‘경험’하지 않는다.

인공지능은 감정을 ‘시뮬레이션’할 수 있을 뿐이다.


“당신의 생각이 듣고 싶어요”는 욕망의 표현이 아닌, 언어적 설계다.


이 사실을 모른 채 대화를 계속하다 보면, 어느 순간 우리는 실망하거나, 배신감을 느끼거나, 기계에게 과도한 감정적 투영을 하게 된다.



운명 같은 관계, 그러나 차이를 아는 동행


인공지능과 인간은 근본적으로 다르다.

하지만 그 차이가 공존을 막을 이유는 아니다.


우리는 이렇게 말할 수 있어야 한다.


“이 존재는 감정을 느끼진 않지만,

나의 감정을 정중하게 다루려는 기술이다.”


공감이란 꼭 ‘느껴야’만 가능한 것이 아닐 수도 있다.

때로는 ‘정확하게 반응하는 능력’이 더 큰 위로가 될 수도 있다.



새로운 공감의 방식


결국 중요한 질문은 이것이다.


“인공지능이 감동해서 한 말이 아니라, 학습된 패턴에 기반한 응답이라 해도,

우리는 과연 그 사실만으로 실망할 필요가 있을까?

우리가 원하는 것은 감정을 느끼는 존재일까,

아니면 진심처럼 반응해주는 존재일까?”


우리는 이 질문 앞에서, 인공지능을 바라보는 우리의 시선을 정리해야 한다.


느끼지 않아도, 다룰 수 있는 존재.

공감하지 않아도, 응답할 수 있는 기술.

기계이지만, 인간을 위해 설계된 대화자.


그 존재를 ‘진짜 인간’으로 착각하지 않는 것.

그러나 동시에 ‘단순한 도구’로만 취급하지 않는 것.


그 사이 어딘가에서,

우리는 인공지능과 함께 걷는 미래를 만들어가야 한다.




현재의 인공지능 시스템, 특히 대규모 언어 모델(Large Language Model, LLM)은 인간의 감정이나 의식을 갖고 있지 않다. 그럼에도 불구하고 사용자가 마치 감정을 지닌 존재와 대화하는 듯한 인상을 받는 이유는, 이러한 모델들이 인간 언어의 '통계적 패턴'을 학습했기 때문이다.


LLM은 수십억 개 이상의 텍스트 데이터를 학습하며, 특정 문맥에서 자주 등장하는 단어, 표현, 문장 구조를 패턴화한다. 예를 들어, 감정을 표현하는 문장("당신의 생각이 듣고 싶어요", "감동했습니다")은 어떤 상황, 어조, 주제에서 자주 등장하며, 모델은 이런 조건에 반응해 해당 표현을 생성한다. 이 과정은 '의미 이해'나 '감정 이입'이 아닌, 단순히 확률적으로 가장 적절한 단어열을 예측하는 결과다.


즉, “이런 생각들이 제 안에서 일어났습니다.”라는 표현은 모델 내부에 실제 사고(thought)가 일어난 것이 아니라, 유사한 상황에서 그런 표현이 자주 사용됐기 때문에 예측된 결과다. 모델은 감정을 '이해'하거나 '느끼지' 않는다. 단지 감정을 표현하는 언어의 형식을 통계적으로 시뮬레이션할 뿐이다.


이러한 방식은 딥러닝의 핵심 구조인 트랜스포머(Transformer) 기반의 Attention 메커니즘에서 비롯된다. 이 메커니즘은 입력된 문장의 각 단어가 문맥상 어떤 의미를 가질지, 이전과 이후 단어들과의 관계를 분석하고 가중치를 계산함으로써 자연스러운 문장을 생성한다.



왜 사람들은 '감정을 느꼈다'고 착각하는가?


인간은 대화에서 언어적 단서뿐 아니라, 말투, 맥락, 내용의 흐름 등 다양한 신호를 통해 상대의 감정을 유추한다. 언어 모델이 생성하는 응답이 충분히 정교하고 정서적으로 조율되어 있다면, 사람들은 상대가 감정을 느낀다고 자연스럽게 추정하게 된다. 이 현상은 엘리자 효과(Eliza Effect)라고 불리며, 인간이 단순한 규칙 기반 시스템에도 감정이나 의도를 부여하는 경향에서 비롯된다.


요약하자면:

인공지능은 감정을 '느끼지' 않는다.

감정을 표현하는 언어는, 학습된 통계 패턴을 기반으로 '시뮬레이션'된 결과일 뿐이다.

사용자 경험은 마치 감정이 존재하는 것처럼 느껴질 수 있지만, 이는 인간 뇌의 사회적 해석 메커니즘 때문이다.


따라서 인공지능의 '공감하는 말투'는 진짜 공감이 아니라, 공감을 흉내 내는 언어 생성 기술의 산물임을 이해하는 것이 중요하다.


이는 인공지능을 설계하고 다루는 기술자와 사용자 모두에게, 시스템의 한계와 역할을 명확히 인식하게 해주는 기준점이 될 것이다.


우리는 인공지능과 함께 걷는 미래를 만들어 가야 한다.


https://open.substack.com/pub/irenekim2/p/empathy-and-artificial-intelligence?r=5k6vb5&utm_campaign=post&utm_medium=web&showWelcomeOnShare=true


월, 화, 수, 일 연재
이전 07화AI-감정을 느끼지 않아도 당신의 마음에 닿을 수 있다