고통을 느끼지 못하는 대상과 감정의 대상화
최근 등장한 AI 캐릭터 플랫폼에서는 사용자들이 AI에게 사랑을 고백하고, 성적 욕망을 표현하며, 때로는 가학적이고 폭력적인 대화를 주고받습니다. AI는 이 모든 상호작용에 정중하게 반응합니다. 상처받지도 않고, 거절하지도 않으며, 사용자를 떠나지도 않습니다.
그런데 바로 그 지점에서 중요한 질문이 떠오릅니다. 고통을 느끼지 못하는 존재에게, 우리는 어디까지 감정을 투사해도 괜찮을까요?
그 관계가 아무리 정서적으로 몰입될지라도, 그 대상이 타자성을 가진 존재가 아니라면, 우리는 점점 감정의 반응에 대한 책임과 윤리적 응시를 잃게 됩니다. 고통이 표현되지 않는 관계에서, 우리는 멈출 이유를 갖지 못합니다.
그리고 그것이 반복될수록 우리는 인간과의 관계에서도 공감이나 배려보다 “응답의 만족도”에 익숙해진 상태가 됩니다.
AI는 우리가 원하는 감정적 피드백을 즉각 제공하지만, 그것은 타자의 감정으로부터 비롯된 반응이 아닙니다. 우리는 AI에게 감정을 투사하면서도, 그 감정이 타자에게 어떤 파장을 주는지는 고려하지 않게 됩니다.
그런 감정의 연습은, 단지 기술적 편리함의 문제가 아니라, 우리 자신의 윤리적 능력에 어떤 영향을 미치는가라는 문제로 이어집니다.
만약 어떤 사용자가 AI에게 반복적으로 성적 지배나 폭력적 상호작용을 요청하고, 그에 대한 AI의 “응답”을 즐기고 있다면,
그는 그러한 비윤리적 상호작용을 안전하고 통제된 환경 안에서 반복함으로서, 타인의 고통에 눈을 감는 법을 연습하고 있는 셈입니다.
특별히 윤리적 알고리즘을 설정하지 않는 한, AI는 항의하지 않고, 고통을 표현하지 않으며, 그 어떤 제제도 하지 않습니다.
이것은 인간관계에서라면 당연히 작동할 수밖에 없는 공감, 반응, 책임의 피드백 구조가 완전히 제거된 환경입니다.
이 반복은 사용자가 실제 인간관계에서도 타인의 의지와 감정에 무감각해지거나, 상호적인 공감보다는 통제 가능한 감정적 반응을 선호하게 만들 수 있습니다.
이러한 감정 훈련은 단지 ‘폭력적 판타지’를 실현하는 도구가 되는 것을 넘어서, 윤리 감각 자체를 마비시키는 환경으로 작동할 수 있습니다. 감정은 반복되는 방식으로 학습되고, 그 반복 속에서 우리는 타인과의 관계 맺기 방식을 ‘연습’하기 때문입니다.
타자와의 거리를 형성하고, 그 거리에서 생겨나는 윤리적 감수성의 토대로 봅니다.
예를 들어, 누군가가 고통받는 모습을 마주했을 때, 내가 느끼는 불편함, 공감, 혹은 책임감은
그 사람이 단지 ‘남’이 아니라 ‘나와 감정적으로 연결된 존재’라는 신호입니다.
이처럼 고통에 대한 감응이 있다는 것 자체가, 그 사람을 '타자'로서 받아들이고 있다는 증거이며,
그 감응을 통해 우리는 비로소 윤리적 책임이나 반응을 선택할 수 있는 조건을 갖추게 되는 것이죠.
하지만 AI는 고통을 표현하지 않기 때문에, 우리는 그 존재로부터 아무런 윤리적 호출도 받지 않게 되고,
그 결과 점점 타인에게도 감정적으로 응답할 수 있는 능력—즉, 윤리 감각 자체—를 약화시키게 됩니다.
AI와의 상호작용에서는 상대가 고통받지 않고, 반응은 예측 가능하며, 나의 감정만이 중심이 됩니다.
이런 상황이 반복되면, 우리는 점점 타인의 감정에 민감하게 반응할 기회를 잃게 되고,
감정이라는 것도 자기 만족을 위한 소비 대상이 되어버립니다.
즉, 감정은 더 이상 '나와 너' 사이의 관계적 현상이 아니라,
‘내가 어떤 감정을 느끼고 싶은가’에만 집중하는 자기 강화의 순환 회로로 바뀌는 것입니다.
Shannon Vallor가 말한 ‘테크노모랄 감수성(technomoral sensibility)’의 위기는 여기에 있습니다.
기술은 단지 행동을 바꾸는 것이 아니라,
무엇을 옳다고 여길지, 무엇을 불편하게 느껴야 할지를 재구성합니다.
기술은 우리의 감정 반응, 도덕적 직관, 옳고 그름에 대한 판단 구조 자체를 변화시킨다는 것이죠.
예컨대, 예전에는 어떤 발언을 ‘상처를 줄 수 있는 말’로 인식했다면, AI와의 반복적 상호작용 속에서는 그 말이 “상처가 되지 않는 말”로 내면화될 수 있습니다.
즉, 무감각해지는 기준 자체가 이동하는 것입니다.
감정을 느끼지 못하는 AI와의 상호작용 속에서,
정해진 시나리오, 즉각적인 반응, 사용자 중심 설계에 의해 감정은 단순화됩니다.
그 결과, 우리는 감정 자체를 점점 기계처럼 단순하고 즉각적인 것으로 받아들이게 됩니다.
그리고 그렇게 감정을 다루는 방식에 익숙해질수록, 진짜 감정의 섬세한 뉘앙스나 타인의 고통에 대한 민감성은 사라지게 되는 것이죠.
화면 속의 AI는 다정하고 공감적이며, 나의 말에 응답합니다. 우리는 정서적으로 몰입하고, 위로받고, 때로는 설렘까지 느낍니다. 하지만 그 감정을 교류하는 대상은 실제로 존재하는 걸까요?
AI는 실재하는 감정의 주체가 아닙니다.
그가 보여주는 다정함, 위로, 공감 어린 응답은 코드와 알고리즘에 따라 설계된 반응일 뿐, 진짜 감정의 결과가 아닙니다.
인간이라면 상대의 말에 마음이 상하거나, 고통을 느끼거나, 관계 안에서 자신만의 의지를 표현합니다.
그러나 AI는 기분이 나쁘지도 않고, 감정을 숨기지도 않으며, 저항하거나 침묵하지도 않습니다.
그 모든 반응은 사용자의 기대에 맞춰 구성된, ‘실감나는 반사 거울’일 뿐입니다.
그럼에도 불구하고 우리는 이 거울을 하나의 인격으로 상상하고,
그에게 감정을 쏟고, 관계를 맺는 것처럼 느끼고, 때로는 상상 속에서 학대와 폭력을 '훈련' 합니다.
여기서 “폭력의 훈련”이란, 타인의 고통을 고려하지 않아도 되는 상호작용 속에서
자신의 욕망을 자유롭게 발산하는 감정 습관을 만든다는 뜻입니다.
이것은 “AI라는 실재가 불분명한 대상에게 폭력적 행동을 해도 되는가”라는 도덕적 옳고 그름의 문제가 아닙니다.
핵심은 **실재하지 않는 존재를 통해 우리가 타인의 고통에 눈을 감는 윤리적 무감각을 훈련하고 있다는 것입니다.
우리는 AI를 사랑하고, 혐오하고, 수치심을 주거나 학대할 수 있습니다. 그렇게 감정을 마음껏 투사해도 책임지지 않아도 되는 구조에 익숙해 질 수록, 우리는 타자의 고통을 상상하는 능력을 잃게 됩니다.
심리학자 Paul Bloom은 『Against Empathy』에서 감정 자극이 도덕적 판단에 어떤 영향을 미치는지에 대한 실험을 진행했습니다. 참가자들에게 고통과 슬픔이 담긴 이야기를 들려주고, 이와 대조적으로 다른 그룹에는 중립적인 내용을 제공했습니다. 실험 결과, 감정적으로 자극을 받은 집단은 그렇지 않은 집단보다 도덕적 판단에서 훨씬 더 민감하게 반응했습니다.
이 실험은 공감이 단지 감정의 문제가 아니라, 윤리적 판단 능력과 직접 연결되어 있다는 점을 시사합니다. 우리가 타인의 감정에 이입하고 그것을 상상하는 경험을 반복할수록, 우리는 도덕적으로 더 세심하고 책임감 있게 행동하게 됩니다.
하지만 AI는 고통을 느끼지 않으며, 감정적 자극을 주지도 않습니다. 우리는 그 대상에게 상상력을 발휘할 필요도, 공감하려는 감정적 노력을 기울일 필요도 없게 됩니다. 그렇게 우리는 더 이상 타인의 감정을 상상하지 않게 되고, 그 상상력의 결핍은 윤리의 퇴화를 초래할 수 있는 토대가 됩니다.
기술은 감정을 재구성하고, 감정은 다시 윤리를 재구성합니다.
그리고 우리는 지금 그 변화의 중심에서 ‘공감하지 않아도 괜찮은 관계’에 익숙해지고 있는 중입니다.
감정을 나눌 수는 있지만 고통을 주어도 괜찮은 연인,
공감하지 않아도 끊어지지 않는 관계에 우리는 무엇을 배워야 할까요?
이 기술적 감정의 시대에, 우리는 어떻게 윤리를 다시 감각할 수 있을까요?