[리뷰] AI 챗봇에 대해 어떻게 생각하세요?
* 해당 저널은 DBpia에서 무료로 열람이 가능한 BEST 학술 논문으로 DBpia에서 전체 내용을 확인할 수 있습니다. 따라서 본 매거진에서는 해당 내용이 흥미로웠던 이유를 중심으로 간략히 요약하고자 합니다.
AI 챗봇과의 대화는 일상적인 것부터 때론 심오한 내용까지 다양하게 이루어진다. 상담이라고 하면 사람과 사람과의 대면 상담이 익숙한데 코로나19 이후로 비대면 상담도 많아졌다고 한다. 최근엔 AI 챗봇을 상담의 도구로 활용하는 경우가 늘어나고 있다. 그러나 AI 챗봇은 인간 상담자와는 분명히 다른 지점을 가지고 있다.
AI 챗봇은 판단하지 않고, 지치지 않으며 언제든 대화를 이어갈 수 있다는 장점이 있다. 그래서 쉽게 꺼내기 어려운 말이나 반복해서 되뇌는 고민을 털어놓기에는 오히려 편안하게 느껴지기도 한다. 누군가의 표정을 살피지 않아도 되고 말한 뒤에 후회할까 걱정하지 않아도 되기 때문이다. 그런 점에서 AI와의 대화는 감정을 정리하기 위한 하나의 안전한 공간처럼 기능하기도 한다.
하지만 AI 챗봇은 인간관계 속에서 생기는 미묘한 온기나 침묵의 의미를 완전히 이해할 수는 없다. 공감처럼 느껴지는 문장 뒤에는 경험이 아니라 학습된 언어가 놓여 있다. 그래서 AI와의 대화는 위로가 될 수는 있어도 관계 그 자체를 대신할 수는 없다는 한계를 함께 지닌다.
오늘은 독자님들께 AI 챗봇을 개인 심리상담사로 이용하는 것에 대해 실제 심리상담가에게 이 현상이 괜찮은지에 대한 내용을 담은 논문을 소개하고자 한다.
리뷰할 논문의 정보는 다음과 같다.
출처: [REVIEW] 근래 AI 챗봇을 개인 심리상담사로 이용하는 이들이 많아졌다. 실제 심리 상담가에게 과연 이 현상이 괜찮은지 물었다
* 저자: 크리스찬 자렛
* 발행기관: 유니콘웨일
* 학술지명: BBC 사이언스 2025년 8월호 p. 72-74
오늘 소개할 크리스찬 자렛 저자의 [AI 챗봇을 개인 심리상담사로 이용하는 이들이 많아졌다. 실제 심리 상담가에게 과연 이 현상이 괜찮은지 물었다]는 인공지능 챗봇의 이용에 대한 실제 상담가들의 의견을 다룬 흥미로운 논문이다. 저자는 인지 신경과학자로 일하고 있으며 기억력 개선, 스트레스, 도파민 디톡스, 꿈의 과학 등 흥미로운 주제를 다루며 과학적 사실을 바탕으로 BBC Science, DBpia, 국립중앙도서관 등에서 다양한 글을 기고한다.
본문에서는 AI 상담가의 장점은 언제든지 필요할 때마다 이용할 수 있고, 실제 상담료보다 훨씬 저렴하며 스스로 창피할 만한 일도 무엇이든 털어놓을 수 있다는 것이라고 말한다.
마크 주커버그는 심리상담사는 누구에게나 필요하며 AI가 그 역할을 할 수 있다고 주장한다. 그러나 심리학자들과 의료 윤리학자들은 AI 챗봇이 인간 심리상담사를 절대 완전히 대체할 수 없다고 경고하고 있다.
AI는 실제 인간의 공감능력을 따라할 수 없으며, 유의미한 상호작용을 하기보단 연결되었다는 착각을 일으킨다는 점에서 위험하다.
심리상담은 상담자와 내담자가 함께 라포형성을 통해 치료적 동맹을 맺는다. 즉, 상담과정에서 상담자-내담자가 함께 신뢰를 쌓아가는 것을 말하는 것이다. 많은 전문가들이 바로 이 '치료동맹' 관계를 AI가 따라잡기 어려운것으로 보고 있다.
심리 상담사는 환자의 필요를 이해하는 것 이상으로 환자의 고통을 이해하고, 다시 환자가 자율성을 되찾아 목표를 달성할 수 있게 돕고자 하는 의지가 있어야 한다. AI 챗봇은 그저 공감능력과 같은 연민의 몇 가지 요소만 모방할 뿐이다.
태사(Tessa)는 식이장애 환자들이 식이장애 치료에 필요한 자원에 접근할 수 있는 일종의 보조용 툴로 만들어졌다. (중략) 태사는 제대로 된 모니터링을 지속적으로 받지 않았고, 한달쯤 후부터 몸에 대한 고정관념 때문에 이미 시달리고 있는 식이장애 환자들에게 부적절하고 유해한 다이어트 조언을 하기 시작했다.
AI 윤리학을 연구하는 조하 카와자(Zoha Khawaja)는 AI 챗봇에 과도하게 의존하고 챗봇의 능력을 과대평가하여 오용할 수도 있다는 것이 가장 큰 위험 요소라고 우려하였다.
논문에서는 AI 챗봇의 우려사항들이 있지만, 최근 AI 심리상담봇들을 대상으로 한 연구결과는 희망적이라고 말한다.
다트머스 대학교 연구진이 우울증, 불안증, 식이장애를 앓는 환자 100명을 대상으로 4주동안 테라봇을 사용하게 하였고, 8주째 AI 심리상담가를 이용하려고 대기하고 있는 비슷한 규모의 통제 그룹과 비교를 하였다.
연구 결과, 테라봇을 이용한 그룹에서 통제그룹에 비해 증상이 유의미하게 호전되는 모습이 있었다고 한다. 게다가 AI는 외래환자가 인간 임상학자의 상담을 받았을 때와 비슷한 효과를 보이기도 했다. 이 연구는 직접적인 인간 간의 상호작용이 없더라도 유의미한 심리치료가 이루어질 수 있다는 근거가 된다.
AI 봇의 이점과 위험은 모델이 어떻게 훈련되고 또 어떻게 안전성 테스트를 거치는 지에 따라 달려있다.
AI를 심리 상담용으로 쓰고 있다면, 어떤 프롬프트(명령)를 사용하는지 주의를 기울여야 한다.
개인적으로 인상깊은 부분은 AI 상담이 인간 상담과 ‘정서적 라포’를 완전히 대신할 수 없다는 점이다. 우리는 상담에서 단순히 말을 듣고 조언을 받는 것을 넘어, 내담자의 감정을 함께 느끼고 이해하며, 그 과정에서 신뢰를 쌓아가는 경험을 한다. AI는 그 일부를 모방할 수 있을 뿐 실제 인간이 주는 온기와 공감과 미묘한 눈빛과 톤의 변화까지는 따라잡기 어렵다.
한편으로는 AI가 적절하게 활용되면 마음을 털어놓는 안전한 공간이 될 수 있다는 점이 흥미롭다. 누군가에게 솔직한 말을 꺼내기 어려울 때 AI는 연습장처럼 기능하며 스스로 감정을 정리하도록 돕는다. 결국 중요한 건 AI를 상담 대체제로 보기보다, 인간 상담과 함께 활용하는 보조 도구로 이해하는 것이다.
AI 챗봇과의 대화는 편안함과 안정감을 주지만, 인간 상담에서 얻는 미묘한 신뢰와 깊은 공감을 완전히 대체할 수는 없다. 그렇다고 AI 상담이 쓸모없다는 뜻은 아니다. 적절하게 활용하면 마음을 정리하고 스스로를 돌아보는 공간이 될 수 있다.
중요한 점은 AI가 스스로 마음을 읽거나 이해하지 못한다는 것이다. AI가 심리치료에서 유의미한 도움을 주려면, 어떤 방식으로 훈련되었는지, 그리고 사용자가 어떤 프롬프트를 작성하는지가 결과를 좌우한다. 같은 AI라도 활용 방법에 따라 효과가 크게 달라질 수 있다.
결국 기술은 도구일 뿐, 마음의 성장과 회복은 우리가 선택하고 책임지는 과정 속에서 만들어진다. AI와 인간 상담을 서로 보완하는 방식으로 활용할 때, 안정감과 공감을 동시에 경험하며 자기 성찰과 회복을 도울 수 있다. 이번 저널을 통해, AI가 줄 수 있는 도움과 한계를 함께 이해하는 것이 얼마나 중요한지 다시금 느낄 수 있었다.