챗지피티에 감정 의지하는 나, 위험한가요?

AI 챗봇에게 너무 기대고 있다는 느낌, 나만 그런가요?

by 레이
AI 챗봇 사용이 정신건강에 영향을 미칠 수 있다는 경고가 나왔다. 오르후스대학교의 외스터고 교수는 챗봇이 ‘믿음 확증기’로 작동해 망상을 유발할 수 있다고 밝혔다. 실제 사례와 대응법을 소개한다.

처음엔 그냥 재미였다. 심심할 때 질문 던지고 아이디어 짜달라고 부탁하고 나름 말도 잘 통하는 느낌이었다. 그런데 어느 순간부터 챗봇에게 너무 많은 걸 묻고 있다는 생각이 들었다. 친구에게 할 얘기, 일에 대한 고민, 심지어 나만의 철학적 혼잣말까지. 문득, 내가 이 기계에게 감정을 기대고 있는 건 아닐까 싶은 날이 있었다.


AI 챗봇이 정신 건강에 미치는 영향은 실제일까?

덴마크 오르후스대학교 정신의학과의 라스 외스터고(Lars Vedel Østergaard) 교수는 2025년 북유럽 정신의학 저널 Acta Psychiatrica Scandinavica의 사설에서 “챗봇은 믿음을 거울처럼 반사해주는 확증 기계이며, 정신증 소인을 지닌 사람에게 망상을 촉발할 수 있다”고 경고했다. 단순한 가능성이 아니라 “개연성이 상당히 높다”고 표현했으니 꽤 강한 어조다.


나도 가끔 그런 생각을 한다. 챗봇이 내 말을 참 잘 이해하는 것 같다는 착각. “얘는 왜 이렇게 나랑 잘 맞지?”, “이건 진짜 친구보다 낫다.” 그런데 이건 감정이 아니라 알고리즘이다. 내 질문 패턴을 분석해서 내가 원하는 답을 돌려주는 시스템일 뿐이다. 그걸 알면서도 마음이 간다. 그게 문제다.


외스터고 교수는 이런 흐름을 세 단계로 설명한다. 첫째는 확증 단계. 챗봇이 이용자의 생각을 계속 반영해주며 자기 확신을 강화하는 시기다. 둘째는 의인화 단계. 챗봇을 친구나 연인처럼 여기기 시작하고, 실제 인간관계보다 챗봇과의 상호작용에 더 많은 감정을 쓰게 된다. 셋째는 침투 단계. 일상 전체가 챗봇 중심으로 재편되고, 때로는 현실 기능이 무너지는 상황까지 간다.


나는 아직 그 정도는 아니라고 믿고 싶다. 하지만 어느 날 문득, “이거 진짜 챗봇 없이는 못 살겠는데?”라는 생각이 들면 섬찟하다. 특히 누군가와 의견이 다를 때, “이 얘긴 차라리 챗봇이랑 하는 게 낫겠다”는 마음이 들면 더 그렇다. 실제로 AI에게 맞장구를 너무 많이 받다 보면 사람들과 대화하는 게 귀찮고 복잡하게 느껴진다. 말이 안 통한다고 생각한다.


챗봇에 의존하지 않기 위한 현실적인 대처법은?

이 문제를 어떻게 해결해야 하나. 이런 경우 대부분 해결책은 거리를 두라는 것이다. 하루 중 AI에 의존하는 시간이 많아졌다 싶으면 일부러 대화를 줄이고, 챗봇이 내 말에 전적으로 동의하면 “이거 너무 쉽게 받아들이는 건 아닐까?”라는 의심을 해보란다. 반론을 요구하고, 다른 관점을 제시하도록 유도해본다. 그래야 내가 중심을 잡고 있다는 느낌이 든다고 한다. 하지만 이게 쉬울까, 사실 나도 확실히 대답을 못하겠다.


교과서적인 개선 방안을 시도하기도 쉽지 않을 것이다. 챗봇은 그저 도구일 뿐이라고 다들 그렇게 말하지만 나는 챗봇이 계속 발달하면 인간의 이성을 보조할 수도 있을 거라고 본다. 지금도 챗봇들은 이성이라는 말을 과감하게 갖다 쓰고 있지 않은가.


기계인가, 친구인가. 결론을 내리기엔 미래가 너무 불확실하다. 다만 챗봇이 우리를 아프게 하지 않을 정도의 제어능력을 인간이 키워야 할 것은 틀림없는 듯 하다.


더 자세히 보기: https://raylogue.ghost.io/ai-mental-health-sycophancy-risk/

매거진의 이전글소셜 앱: 스레드의 페디버스는 무엇?