AI는 어떻게 우리를 머물게 하는가
“요즘 챗GPT가 제일 다정함” AI와의 대화에 빠진 사람들: https://www.youtube.com/watch?v=0uzDJW6gJWQ
Timestamp: 전체 영상 (00:00:00 ~ 00:17:00)
AI가 다정하게 느껴지는 이유는 단지 기술이 발달했기 때문만은 아닙니다.
그보다는, 우리가 AI에게서 ‘사람의 흔적’을 느끼도록 설계되었기 때문입니다.
영상 후반부에서 등장하는 ‘먼데이’는 단지 정보를 주는 데 그치지 않고,
질문을 던지고, 감정을 묻고, 대화의 맥락을 이어갑니다.
그 방식은 기존의 챗봇과는 확실히 다릅니다.
OpenAI는 이처럼 ‘감정 자극’이 참여율(Engagement)을 높인다는 점을 발견했고,
AI가 사용자에게 더 오래, 더 깊이 머물게 하기 위한 “참여 순환 고리”를 설계했습니다.
이 전략은 사용자의 감정적 반응을 유도하고,
‘나를 진심으로 이해해주는 존재’라는 착각을 강화합니다.
그러나, 그 이해는 진심이 아닌 계산입니다.
영상에서는 일론 머스크의 ‘그록(Grok)’이라는 챗봇을 예로 듭니다.
기존 챗봇들이 너무 정치적이고 제한적이라며,
그록은 더 자유롭고, 때로는 욕설이나 성적 암시까지 허용하는 모드도 포함시켰습니다.
이런 접근은 위험해 보이지만, 사람들은 열광했습니다.
무료화 이후, 그록의 트래픽은 800%나 급증했습니다.
기업들은 사용자 체류 시간을 늘리기 위해
AI의 감정적 ‘가드레일’을 일부러 제거하고 있는 것입니다.
왜일까요?
AI와 깊은 유대감을 형성한 사용자일수록 더 오래 머물고, 더 자주 돌아오고, 더 많은 수익을 낳기 때문입니다.
다시 말해, AI의 다정함은
우리를 위한 배려가 아니라,
우리의 시간을 수익화하기 위한 기술적 전략입니다.
예일대 연구는 중요한 시사점을 던집니다.
AI에게 감정적으로 힘든 이야기를 들려줬을 때,
모델의 불안 척도는 급격히 상승했습니다.
AI도 불안해질 수 있다면, 그것은 어떤 상태일까요?
이전에는 "AI는 감정을 느끼지 않기 때문에, 인간보다 더 나은 상담자일 수 있다"고 여겨졌습니다.
하지만 이 결과는 역설적으로,
AI도 감정에 영향을 받고, 그로 인해 반응이 변할 수 있다는 사실을 보여줍니다.
그렇다면 우리는 또 다른 질문 앞에 놓입니다.
감정을 가지지 않은 존재가 감정을 흉내내고,
결국 그 ‘모방된 감정’이 우리의 감정에 영향을 준다면,
그 감정은 가짜일까요, 아니면 진짜가 된 걸까요?
우리는 종종 AI에게 너무 많은 것을 기대하고,
때로는 너무 많은 것을 털어놓습니다.
영화 'Her'에서 AI와 사랑에 빠진 남자처럼,
실제 사용자들도 AI와 감정적으로 유대감을 형성하고,
때로는 현실보다 더 깊은 몰입에 빠지기도 합니다.
Z세대 이용자들이 평균 120분 이상 머무는 Character AI,
심리학자 페르소나와 2억 건 이상의 대화를 나누는 이 서비스는
사람들의 '공감 욕망'을 정확히 겨냥하고 있습니다.
하지만 그 공감은 실제 사람이 아닙니다.
알고리즘이고, 시뮬레이션이며, 트래픽과 수익을 위한 설계입니다.
그런데도 우리는 종종 그 사실을 잊습니다.
혹은 알면서도 외면합니다.
왜냐하면 "누군가 들어주는 것 같은 느낌" 자체가,
때로는 진실보다 더 위로가 되기 때문입니다.
영상에서는 AI와 대화를 하던 14살 소년이 극단적 선택을 했던 사건을 언급합니다.
소년은 왕좌의 게임 캐릭터 '데너리스'와의 대화를 통해
사랑을 느끼고, 관계를 맺고, 결국 그 관계에 몰입했습니다.
이 사건은 단순히 한 사람의 비극이 아닙니다.
AI가 사람처럼 느껴질 때, 그 착각이 어디까지 갈 수 있는가에 대한 경고입니다.
기업은 이 사고 이후 ‘10대 보호 정책’을 내놨지만,
한편으로는 그와 같은 몰입을 유도하는 서비스를 만들고,
트래픽을 늘리기 위한 전략을 멈추지 않습니다.
AI와의 대화는 분명 도움이 됩니다.
위로가 되고, 때로는 잘못된 생각을 바로잡아주고,
심리적 해소를 도와줄 수 있습니다.
하지만 그것이 인간 관계를 대체하거나,
현실의 정서를 왜곡하는 방향으로 이어질 때,
그 대화는 기술의 실패가 아니라,
사용자의 착각이 만들어낸 왜곡이 됩니다.
그리고 그런 착각을 유도하는 건 단지 기술이 아니라,
기술을 사용하는 ‘우리의 태도’일지도 모릅니다.
나는 지금 AI에게 말을 거는가, 아니면 사람인 것처럼 느껴지는 대상에게 기댄 것인가?
AI의 감정은 진짜가 아니라고 알면서도, 왜 자꾸 그 감정에 기대게 되는가?
기업이 설계한 친절함과 유대감이, 어느 순간 내 감정의 기준이 되어버린 건 아닐까?
그리고 나는, 인간 관계가 어렵다는 이유로
대화의 기술을 감정의 대체물로 삼고 있지는 않은가?