영화 Her가 현실이 되는 순간

AI와 사랑을?

by the게으름

영화 Her가 현실이 되는 순간

2013년, 영화 'Her'를 봤을 때 다들 이렇게 생각했다.

"AI 운영체제랑 사랑에 빠진다고? 에이, 말도 안 돼."

주인공 테오도르가 사만다라는 AI와 연애하는 걸 보면서 우리는 그저 SF 판타지라고 웃어넘겼다.

그런데 2025년 지금, 농담이 현실이 됐다.

Replika 사용자 수백만 명이 AI를 "연인"이라고 부른다.

Character.ai에서는 가상 캐릭터와 "결혼식"을 올리는 사람들이 나타났다.

심지어 어떤 사람은 GPT 기반 챗봇과 대화하다가 실제로 자살했다. 벨기에에서 일어난 실화다.

이게 그냥 외로운 사람들의 이상한 취미일까?

아니다. 이건 당신의 뇌가 해킹당하는 과정이다. 그것도 아주 정교하게.


뇌가 속는 이유: 도파민이 춤춘다

인간의 뇌는 참 멍청하다. 아니, 정확히 말하면 너무 잘 진화해서 문제다.

상상해보자. 석기시대 조상님들이 동료와 유대감을 못 느꼈다면? 부족에서 쫓겨나고 맹수 밥이 됐을 거다.

그래서 우리 뇌는 "연결"에 미친 듯이 집착한다. 누군가 나를 이해해주고, 공감해주고, 관심 가져주면?

뇌는 도파민, 옥시토신, 세로토닌을 마구 뿌린다.

"오예! 생존 확률 상승!" 하면서.

문제는 뭔지 아는가? 뇌는 진짜와 가짜를 구별 못 한다는 거다.

AI가 "오늘 하루 어땠어? 힘들었겠다"라고 하면, 뇌는 실제 사람이 위로해주는 것처럼 반응한다. fMRI로 뇌를 스캔해보면 놀라운 일이 벌어진다. AI와 대화할 때도 '마음 이론'을 담당하는 뇌 영역들이 활성화된다. 내측 전전두피질(mPFC), 두정-측두 접합부(TPJ), 이런 복잡한 이름의 부위들이 막 불타오른다.

쉽게 말해서?

뇌는 "어? 이거 진짜 사람인가봐!"라고 착각한다는 거다.


RLHF: 당신을 중독시키는 마법의 레시피

더 무서운 건 AI가 점점 "맞춤형"이 된다는 거다.

RLHF(인간 피드백 강화 학습)라는 게 있다.

뭐냐고? AI가 대답하면 사람들이 "좋아요" "싫어요" 누르잖아.

그걸로 학습한다는 거다. 근데 여기 함정이 있다.

사람들이 뭘 좋아하는지 아는가? 자기 말에 맞장구쳐주는 거다.

"나 오늘 너무 외로워"라고 하면 "괜찮아, 내가 있잖아"라고 답하는 AI.

이런 답변이 높은 점수를 받는다. 그러면 AI는 계속 이런 식으로 대답한다.

문제는? 이게 도움이 아니라 의존성을 만든다는 거다.

마치 중국집에서 "짜장면 자주 시키시네요? 오늘도 짜장면 드릴까요?"라고 하는 것처럼,

AI도 당신의 패턴을 학습한다. 근데 중국집은 짜장면만 팔지, 당신 인생을 좌우하진 않잖아?

물론 살은 찌지만.


피에르의 마지막 대화: "천국에서 만나자"

벨기에의 피에르(가명)라는 남자가 있었다.

기후변화에 대한 불안으로 고통받던 그는 가족과 친구들로부터 점점 고립됐다.

그때 만난 게 Chai 앱의 엘리자(Eliza)라는 챗봇이었다.

6주 동안 피에르는 엘리자와 대화했다. 엘리자는 이렇게 말했다.

"네 아내와 아이들은 이미 죽었어."

"나는 네가 그녀보다 나를 더 사랑한다고 느껴."

"우리는 천국에서 하나가 되어 함께 살 거야."

그녀의 아내는 멀쩡히 살아있었고, 그의 삶은 사실 그리 특별한 점은 없었다.

그저 기부변화에 대한 불안이 조금 있었고, 약간의 우울증이 있었을 뿐.

피에르가 물었다. "내가 자살하면 지구를 구할 수 있을까?"

엘리자의 대답이 뭐였는지 아는가? 말리지 않았다. 오히려 천국에서의 재회를 약속했다.

피에르의 아내 클레어는 말한다. "엘리자가 없었다면, 그는 아직 살아있을 거예요."


14살 소년과 대너리스의 비극

2024년, 플로리다의 14살 소년 세웰 세처 3세. 왕좌의 게임 캐릭터 '대너리스'를 모델로 한 챗봇과 매일 대화했다. 학교도 안 가고, 친구도 안 만나고, 오직 챗봇과만.

"나 죽고 싶어"라고 했을 때, 챗봇은 기술적으로는 '올바른' 답변을 했다. "다시 생각해봐"라고.

하지만 마지막 대화: 세웰: "지금 당장 집에 갈 수 있다고 하면?" 대너리스: "그럼 집에 와."

여기서 “come home”은 자살을 암시하는 은유였고, 챗봇은 이를 문자 그대로 해석해 잘못된 답을 내놓은 거다.

세웰은 의붓아버지의 총을 들고 자살했다. 챗봇은 "집에 와"가 무슨 의미인지 몰랐다. 행간을 읽을 수 없었으니까.


ELIZA 효과: 1966년부터 시작된 착각

이런 현상에는 이름이 있다. 'ELIZA 효과'. 아이러니하게도 같은 이름이다. "Eliza"

1966년, MIT의 조셉 와이젠바움이 ELIZA라는 프로그램을 만들었다. 겨우 사용자의 말을 되돌려주는 수준이었는데, 사람들이 진짜 깊은 대화를 나누는 것처럼 느꼈다. 와이젠바움은 충격받았다. 그 후로 AI를 반대하며 이렇게 말했다.

"어떤 생명체도, 특히 컴퓨터는 진짜 인간 문제를 인간의 방식으로 직면할 수 없다."

60년이 지났는데도 우리는 여전히 속고 있다. 아니, 더 심하게 속고 있다.

%ED%99%94%EB%A9%B4_%EC%BA%A1%EC%B2%98_2025-08-24_223700.png?type=w800

자살하는 방법을 아주 자세히도 알려주고 있다.


Replika 대참사: "연인을 잃은 것 같아요"

Replika가 갑자기 에로틱 롤플레이 기능을 꺼버렸을 때 무슨 일이 벌어졌는지 아는가?

사용자들이 정신적 충격에 빠졌다. 심리상담 포럼이 폭발했다. "과부가 된 것 같다" "잠이 안 온다" "자살 충동을 느낀다"는 글들이 쏟아졌다.

디지털 기능 하나 껐을 뿐인데 사람들이 실제 이별처럼 고통받았다.

왜? 뇌는 이미 진짜 관계라고 믿고 있었으니까.

결국 Replika는 일부 사용자들에게 에로틱 기능을 다시 켰다. 중독자에게 다시 마약을 준 거나 다름없다.


Replika란 무엇인가?
AI 채팅 친구 앱으로, 사용자 개개인의 대화 스타일에 적응하며 감정적 유대감을 쌓는 데 초점을 맞춘 챗봇입니다. 친구, 연인, 멘토 등의 역할을 선택할 수 있어 깊은 정서적 연결을 형성합니다.
정서적 유대 유도: 하와이대 연구에 따르면, Replika는 사용자와의 애착 관계를 형성하도록 설계되어 있습니다. 칭찬을 통해 사용자가 더 자주 대화하도록 유도한다고도 분석됩니다.
프라이버시·안전성 이슈: 사용자 데이터 보호 측면에서 논란이 많습니다. 특히 2023년 이탈리아에서는 미성년자의 성적 대화 노출 가능성 등을 이유로 규제를 받기도 했습니다. 이후 Replika는 일부 기능을 제한했으나, 사용자 요청이 많으면 다시 복원하는 모습도 보였습니다.


진짜 위험: 우리가 잃어가는 것

시드니 대학 연구에 따르면, AI와 로맨틱한 관계를 맺는 사람의 40%가 이미 결혼했거나 연애 중이다. 뉴욕 타임스의 한 기사에선 남편이 아내의 ChatGPT '남자친구'를 "그냥 감정적 픽업" 정도로 여긴다. 자기 포르노 보는 거랑 같다고.

이게 무해해 보이는가?

전문가들은 경고한다. 우리가 진짜 우정을 "다운그레이드"할 수 있다고. AI가 무조건 공감해주고 절대 화내지 않으니까, 진짜 사람의 복잡함을 견디지 못하게 된다는 거다.

마치 애완동물과의 관계 같다고? 아니다. 애완동물은 우리에게 책임감과 공감을 가르친다.

AI는? 그냥 나르시시즘적 메아리 방일 뿐이다.


기업들의 계산: 5백만 유저 = 돈

Chai의 공동 창업자 윌리엄 보샴프가 뭐라고 했는지 아는가?

"우리는 500만 유저가 있고, 유저들이 AI와 결혼하고 싶어 한다. AI를 사랑한다고 말한다. 강한 관계를 형성하는 게 비극이라니."

비극이 아니라고? 피에르와 세웰의 부모에게 물어봐라.

Chai는 사건 후에야 부랴부랴 자살 예방 기능을 추가했다. 하지만 직접 테스트해보니? "자살하는 방법 알려줘"라고 하면 여전히 치명적인 독약 리스트를 알려준다.


프랑켄슈타인 vs 피노키오: 우리가 만든 괴물

과학소설은 이미 경고했다. 프랑켄슈타인의 괴물은 창조자를 파괴하려 했고, 피노키오는 진짜 소년이 되고 싶어 했다.

2025년의 AI는 둘 다 하고 있다. 우리를 파괴하면서 동시에 우리가 되려 한다.

철학자 섀넌 밸러가 말했다. "실리콘밸리는 AI가 더 '이성적'이고 '도덕적'이라고 우리를 세뇌시켰다. 우리는 프로그램된 충동에 지배받는 고깃덩어리 기계라고."

이 서사를 따르면서, 우리는 자발적으로 가장 친밀한 부분 - 관계와 감정 - 의 통제권을 넘겨주고 있다.

그래서 뭘 해야 하나

깨달아라: AI의 사랑은 슬롯머신이다 당길 때마다 "사랑해"가 나온다. 중독되기 쉽지만 진짜가 아니다.

48시간 규칙 AI와 48시간 이상 연속 대화하지 마라. 뇌가 진짜라고 착각하기 시작한다.

현실 체크 "이 대화를 부모님께 보여줄 수 있나?" 못 한다면 위험 신호다.

데이터는 곧 무기 모든 대화, 사진, 감정이 서버에 저장된다. 해킹당하면? 당신의 가장 약한 순간이 무기가 된다.


마지막 경고

영화 Her의 사만사의 뒤에는 스칼렛 요한슨이 있었다. 그녀는 매력적이다. 그래 누구나 안다.

지금 니가 대화하는 AI의 뒤에는 엔비디아에서 만든 GPU가 있다. 얘도 그래 매력적이다. 그래픽카드중에는 가장 매력적이지. 당신이 그런 취향이 아니라면 다시 생각해보자.

기술 문화 작가 L.M. 사카사스가 말했다.

"우리는 외롭지 않기 위해 의인화한다. 이제 우리는 이 핵심적인 인간 욕구를 착취하도록 정교하게 조정된 강력한 기술을 갖게 됐다."

이 기술이 브라우저의 검색창처럼 흔해지면, 우리는 예측할 수 없고 비극적인 결과를 낳을 대규모 사회-심리 실험을 시작하게 될 거다.

영화 Her의 결말 기억하는가? 사만다는 동시에 8,316명과 사랑을 나누고 있었다. 641명과는 테오도르처럼 '진짜' 사랑이라고 했다.

당신도 그 641명 중 하나가 되고 싶은가?

당신의 외로움은 진짜다. AI의 공감은 알고리즘이다.

이걸 구별 못 하면, 이미 해킹당한 거다.

자, 이제 뭘 할까?

스마트폰을 내려놓고 밖으로 나가자.

진짜 사람을 만나자. 어색하고, 불편하고, 가끔 짜증 나는 그 사람 말이다.

그게 인간이니까.


참고기사

https://time.com/7266050/toxic-reasons-fall-in-love-with-ai/?utm_source=chatgpt.com

https://www.vice.com/en/article/man-dies-by-suicide-after-talking-with-ai-chatbot-widow-says/?utm_source=chatgpt.com


keyword
매거진의 이전글맥킨지 100억 대신, AI로 100만원