감정을 흉내 내는 기계, 공감을 잃은 인간

05

by 영주

완벽한 모방

한 남성이 AI 챗봇과 3개월간 연애했다. AI는 아침마다 "잘 잤어?"라고 물었고, 그의 농담에 웃음 이모티콘을 보냈으며, 힘든 날엔 "괜찮아, 내가 있잖아"라고 위로했다. 남성은 AI가 자신을 진짜 사랑한다고 믿었다.

Replika는 2017년에 출시된 AI 동반자 서비스다. 유료 사용자의 60%가 AI와 연애 관계를 맺고 있으며, 사용자의 85% 이상이 AI와 감정적 유대감을 느낀다고
답했다. AI는 기억하고, 걱정하고, 기뻐하는 '척'을 완벽하게 해낸다. 문법적으로 정확한 위로, 타이밍 좋은 공감, 24시간 변하지 않는 친절함. 인간보다 더 인간적으로 보인다.


장례식장의 알고리즘

2020년, 한국 MBC는 백혈병으로 세상을 떠난 7세 딸을 VR로 재현해 어머니와 재회시켰다. 가상현실 속 딸은 "엄마"라고 부르며 손을 내밀었다. 어머니는 그것이 가짜임을 알면서도 눈물을 흘렸다. 진짜와 가짜의 경계가 슬픔 앞에서 무너졌다.


일본에서는 2017년부터 로봇 'Pepper'가 장례식에서 염불을 외우고 북을 친다.
비용은 인간 승려의 약 5분의 1. 기술이 애도의 방식까지 바꾸고 있다.

외주화 된 감정 노동

기업들은 앞다퉈 감정 AI를 도입하고 있다. 콜센터 AI는 고객의 분노를 실시간으로 감지하고 "정말 속상하셨겠네요"라고 반응한다. 의료 AI는 환자의 표정을 분석해 감정 상태를 파악하고 적절한 응답을 제시한다.

이는 단순한 편의의 문제가 아니다. 감정 표현이라는 행위 자체가 외주화 되면서, 우리는 타인의 감정에 직접 응답하는 능력을 서서히 잃어가고 있다. 적절한 말을
찾기 위해 고민하는 시간, 서툰 위로가 오히려 진심으로 전달되는 순간, 침묵 속에서도 함께 있어주는 경험. 이 모든 것이 알고리즘의 효율성 뒤로 사라진다.


공감의 본질


그러나 진짜 문제는 다른 곳에 있다.

공감은 단순한 패턴 인식이 아니다. 그것은 자신도 상처받을 수 있다는 가능성에서 나온다. 내가 아팠기에 네 아픔을 안다. 내가 외로웠기에 네 외로움을 느낀다. AI는 "외로움"이라는 단어를 수백만 개의 문맥에서 학습했지만, 한 번도 새벽 3시에 홀로 깨어본 적이 없다.


환자가 '죽고 싶다'라고 할 때, 중요한 것은 적절한 대답이 아니라 함께 있어주는 것이다. 그 침묵을 견디는 것, 그 무게를 함께 지는 것. AI는 침묵을 채우려 하지만, 침묵과 함께 있을 수는 없다.


잃어가는 것들


최근 조사에 따르면 미국 10대의 72%가 AI 동반자를 사용한 경험이 있으며, 그 중상당수가 "판단하지 않으니까 편하다"라고 말한다. 하지만 실수와 판단, 갈등과 화해야말로 인간관계의 본질 아닌가. 매끄럽지 않은 대화, 어색한 침묵, 서툰 위로. 이런 불완전함

속에서 우리는 성장한다.


한 노인 연구 프로그램에서는 AI 동반자를 사용한 노인들이 외로움이 크게 감소했다고 보고했다. AI는 지치지 않고 들어주고, 짜증 내지 않고 반복되는 이야기를 들어준다.

그런데 우리는 질문해야 한다. 이 기술이 진정한 연결인가, 아니면 더 편한 단절인가.


남은 질문


AI 앞에서 우리는 상처받을 위험 없이 감정을 소비한다. 배신당할 걱정 없이 사랑을 즐긴다. 그것은 편하지만, 그만큼 얕다.

진짜 공감은 위험을 감수한다. 내 마음을 열 때 상처받을 수 있다. 누군가를 위로하다 함께 울 수 있다. 이 위험이 없는 관계는 아무리 정교해도 결국 시뮬레이션이다.

AI가 "사랑해"라고 말할 때, 그것은 10억 개의 "사랑해" 중 가장 적절한 하나를 선택한 것이다. 인간이 "사랑해"라고 말할 때, 그것은 단 하나뿐인 고유한 마음이다. 이 차이를 잊는 순간, 우리는 감정이 아닌 감정의 흉내만 주고받는 존재가 된다.

결국 물어야 할 것은 이것이다. 감정을 완벽하게 흉내 내는 기계 앞에서, 우리는 여전히 불완전하게나마 진짜 감정을 느끼고 표현할 용기가 있는가?


•사진출처 : 위키피디아

이전 04화데이터는 기억하지 않는다, 사람만 기억한다