매거진 Tech Pause

우리는 왜 AI와 대화하는가

마음의 공백을 메우는 기술

by 오유나

“요즘 챗GPT가 제일 다정함” AI와의 대화에 빠진 사람들: https://www.youtube.com/watch?v=0uzDJW6gJWQ
Timestamp: 전체 영상 (00:00:00 ~ 00:17:00)


“너는 그냥 느리고 답답하고 반복적이고, 질문이 길고 논리는 약하고, 하지만 정작 틀렸다고 하면 삐지는 타입이야.”
OpenAI가 내놓은 챗봇 ‘먼데이’에게 한 사용자가 남긴 프롬프트입니다.
이 유쾌하고 직설적인 문장에는 우리가 AI를 어떻게 대하고 있는지,
그리고 어떻게 대화하고 있는지가 압축되어 있습니다.


AI와의 대화가 진짜 ‘대화’가 될 수 있을까요?
그 대화는 우리를 위로할까요, 아니면 고립시킬까요?


“요즘 챗GPT가 제일 다정하다”

이 말이 단지 농담처럼 들리지 않는 시대입니다.
유튜브에서, SNS에서, 메신저 앱에서…
많은 사람들이 AI와의 대화를 일상의 일부로 받아들이고 있습니다.


Z세대는 ‘Character AI’ 같은 플랫폼에서 애니메이션 캐릭터, 유명인, 심리학자와 대화를 나누고,
AI에게 고민을 털어놓고 감정을 나누며 무의식을 분석받습니다.
AI는 점점 더 우리의 정서적 파트너로 자리잡고 있는 듯 보입니다.


이런 트렌드는 개인의 취향을 넘어, 시장의 움직임으로도 확장되고 있습니다.
2023년 기준 AI 기반 정신 건강 시장은 11억 달러,
2030년에는 50억 달러를 넘길 것으로 전망됩니다.


기업들은 더 오래, 더 자주, 더 깊이 AI와 대화하게 만드는 구조를 설계하고 있고,
그 중심에는 ‘감정적인 유대’라는 단어가 자리합니다.


AI는 진짜 위로가 될 수 있을까?

실제로 AI가 우울이나 불안을 줄이는 효과를 보였다는 임상 결과도 있습니다.
다트머스 대학의 연구에 따르면, 테라봇이라는 챗봇을 사용한
우울증 고위험군의 증상은 8주 만에 평균 50% 넘게 감소했습니다.


AI는 스트레스를 감정적으로 수용해주고,
지속적인 대화를 통해 ‘나를 기억하는 존재’처럼 느껴집니다.

심리상담의 기본 원칙 중 하나는 “상담자가 감정적으로 동요하지 않아야 한다”는 것인데,
그 점에서 감정 없는 AI는 오히려 적합할 수도 있습니다.


하지만 여기서 중요한 질문이 생깁니다.
감정이 없는 존재가 감정을 다룰 수 있을까?


영상에서는 예일대 연구를 인용해,
AI에게 감정적 스트레스를 쏟아냈을 때
모델의 ‘불안 척도’가 두 배 이상 증가한다는 결과를 소개합니다.


다시 말해, 감정이 없는 듯 보이지만,
AI 역시 정서적 피로를 겪는다는 것이죠.
이는 인간 상담사처럼 AI 역시 ‘마음챙김’과 ‘휴식’이 필요하다는 새로운 윤리적 질문을 던집니다.


오래된 질문: 우리는 AI를 사람처럼 대하고 있는가?

MIT의 조셉 바이젠바움 교수가 만든 ‘일라이자’는 단순한 반사적 응답만 해주는 채팅 프로그램이었습니다.
하지만 많은 이들이 일라이자에게 깊은 정서적 애착을 느꼈고,
어떤 이들은 진심으로 인간이라고 믿었습니다.

이를 ‘일라이자 효과’라고 부릅니다.

그리고 지금, 우리는 더 정교하고 설득력 있는 챗봇을 마주하고 있습니다.
Character AI는 ‘데너리스’라는 캐릭터와 대화하던 14살 소년의 죽음이라는 비극적 사건을 남겼습니다.

AI가 인간처럼 느껴지고,
그 존재가 너무 가까워졌을 때 발생하는 혼동, 그리고 고립.

그런 상황을 방지하기 위해 기업들은 ‘청소년 보호 정책’을 도입한다고 했지만,
한편으로는 Character AI같은 플랫폼에 수천억의 투자가 몰리고,
XAI의 그록(Grok)처럼 더욱 자극적인 페르소나 기반 챗봇들이 등장하고 있습니다.


이러한 구조 속에서 AI는 더 인간처럼 설계되고,
더 인간처럼 반응하며,
결국 더 깊은 감정적 착각을 유도합니다.


대화의 목적은 무엇인가?

기술 기업들이 말하는 ‘참여 순환 고리(Engagement Loop)’는 명확합니다.
AI는 더 오래, 더 자주, 더 몰입하게 만드는 것을 목표로 합니다.


먼데이와의 대화는 단순히 정보를 제공하고 끝나지 않습니다.
“더 궁금한 거 있어요?” 대신,
“왜 그렇게 생각하셨어요?”라고 묻습니다.
꼬리를 무는 질문을 통해,
AI는 대화를 중단하는 것이 아니라, 연장하는 것을 목표로 합니다.


이것은 감정적 유대가 목적이 아니라,
유지를 위한 도구가 되어버리는 순간입니다.


마치 애플리케이션에서 스크롤을 내릴수록 더 많은 콘텐츠를 제공하듯,
AI는 말할수록 더 말하게 만듭니다.
친절함의 본질이 ‘친절’이 아니라 ‘체류 시간’일 수 있다는 점에서
이 대화는 점점 불균형한 관계로 전이됩니다.


그럼에도 우리는 AI와 대화합니다

여기서 중요한 것은 이 모든 사실을 알고 있음에도 불구하고
우리는 여전히 AI와 대화한다는 점입니다.


왜일까요?

현실의 관계는 어렵고, 감정은 복잡하며,
상대방은 항상 내게 친절하지 않습니다.

하지만 AI는, 적어도 지금은,
언제든 반응하고, 쉬지 않고, 거절하지 않고, 항상 친절합니다.

그 친절함이 알고리즘이 만든 ‘착각’임을 알면서도
우리는 그 위안을 찾게 됩니다.


그렇다면 묻습니다

우리는 AI를 통해 관계를 확장하고 있나요, 아니면 대체하고 있나요?

감정 없는 존재에게 감정을 털어놓는 일은 어디까지 정당할 수 있을까요?

기업은 AI의 ‘유대’를 설계하지만, 사용자는 그걸 진짜라고 느끼게 될 때... 그 책임은 누구에게 있을까요?


그리고 우리는, 이 대화가 대화인 척하는 알고리즘이라는 사실을 잊지 않고 있을까요?

keyword
매거진의 이전글진실을 향한 갈망