나도 모르는 내 마음, 읽을 수 있을까
이런 상상을 한 번 해볼까요.
각자 자신의 핸드폰 메신저에 있는 친구들과의 단체 채팅방, 알고리즘에 기반해 추천 콘텐츠를 보여주는 인스타그램 ‘돋보기’ 페이지, 그리고 챗GPT와의 최근 10개 대화 내역. 이 셋 중 하나를 다른 사람들 앞에 낱낱이 공개해야 한다면, 어떤 것을 고를까요?
상황을 가정한 질문이지만 고민이 꽤 깊어집니다. 몇 년 전까지만 해도 지인들과 나눈 날것 그대로의 대화 내용이 담긴 단체 채팅방, 혹은 내 취향이 고스란히 드러나는 콘텐츠를 공개하는 게 싫다는 사람들이 많았을 수 있습니다. 그런데 최근엔 카카오톡보다 더 남들에게 보여주기 싫은 게 바로 챗GPT와의 대화 내용이라는 사람들이 적지 않습니다.
이유는 각기 다를 테죠. “이런 것도 몰라서 인공지능에게 묻느냐”는 비아냥이 두려울 수도 있지만, 누군가는 인공지능인 AI에게 이렇게 시시콜콜한 내용까지 털어놓고 위로나 공감을 바라는 자신의 모습이 드러나는 것이 싫어서일수도 있겠습니다. AI가 단순히 귀찮은 업무를 대신해 주는 것을 넘어서서, 나의 가장 내밀한 이야기까지 들어주고 답을 찾아주는 친구, 혹은 상담가 역할까지 하는 것이 이미 현실입니다.
우리가 살고 있는 이 세계가 복잡해질수록 상담과나 정신과를 찾는 사람들이 많아진다고 합니다. 마음 한편이 서서히 병들고 있다는 사실을 자각하는 것조차 쉽지 않은 경우도 있죠. 이유 없이 가라앉은 마음, 스스로도 설명하기 어려운 서러움과 슬픔, 넘실대 감정의 출처를 찾고 싶을 때 사람들은 자연스럽게 챗GPT를 찾습니다. 마음의 상처를 치유해 주는 상담가의 역할, AI가 대신할 수 있게 된 것일까요?
잡다한 AI 연구소는 서은경 연합심리상담교육센터 대표를 만났습니다. 서 대표는 부부 및 가족상담, 청소년상담 분야의 전문가이자, 각종 트라우마 치료 과정을 수련한 상담 전문가입니다. 서 대표가 이끄는 연합심리상담교육센터는 현직 상담가들조차 상담을 받으러 찾을 만큼, 업계 안에서도 전문성을 인정받고 있는 곳이기도 하죠.
서 대표와 함께 현재 상담 현장에서 내담자와 상담가들이 각각 AI를 얼마나 활용하고 있는지, 또 그 대체 가능성에 대해 어떤 생각을 갖고 있는지 이야기를 나눴습니다. 서 대표에 따르면 최근 청소년부터 성인에 이르기까지, 챗GPT를 마치 상담가처럼 여기고 자신의 생각을 비교적 솔직하게 털어놓는 내담자들이 상당히 많아졌다고 합니다. 실제 상담실에서 “챗GPT는 이렇게 말하던데요, 선생님은 어떻게 생각하세요?”라는 질문을 받은 적도 있다고 합니다. 공식적인 통계가 있는 것은 아니지만, 체감상 그 빈도는 분명히 늘어나는 추세인 셈이죠.
AI가 꽤 괜찮은 심리 상담가로서 역할을 할 때가 있습니다. 바로 내담자가 “이런 심리 상태일 때는 어떻게 행동하는 게 좋을까”처럼 구체적인 행동 지침을 묻는 경우입니다. 서 대표는 이 같은 질문에 대한 AI 답변은 그 퀄리티가 꽤 준수하다고 평가했습니다. 다만 이러한 상담은 내담자가 적어도 자신의 감정 상태를 어느 정도 인식하는 경우에만 유의미하다고 합니다. 즉, 스트레스 관리 능력이 비교적 양호한 내담자일 경우에만 AI 상담으로 도움을 받을 수 있다는 것이지요.
실제로 AI와 상담을 하다 보면 위로를 받기도 많지만, AI가 나에 대해 추가 질문을 할 때가 많습니다. 이렇게 자신의 상황을 설명하고, 그 과정에서 되묻는 질문에 답하다 보면 상담 과정에서 중요한 단계로 꼽히는 ‘조망 확장’이 자연스럽게 이뤄지기도 하는 것이지요. 자신의 상태를 한 발짝 떨어져 바라보고, 스스로를 인지하는 과정에서 치유가 되는 겁니다. 최근엔 AI가 내담자뿐 아니라 초심 상담가들의 훈련 도구로도 활용되고 있습니다. 이제 막 상담 현장에 발을 들인 초보 상담가, 혹은 석사 학위 소지자들의 경우 자신의 반응이 적절했는지 점검하는 ‘대안 반응’을 도출하는 데에 도움이 된다는 겁니다.
사실 상담용 로봇의 개발 자체는 새로운 일이 아니기도 합니다. 1966년 개발된 대화형 프로그램 ‘엘리자(ELIZA)’는 지금도 여전히 작동하고 있고, 이후 워봇(Woebot), 가상현실 기반의 엘리(Ellie) 같은 다양한 대화형 에이전트도 등장해 왔습니다. 국내에서도 AI 기반 심리상담 서비스 ‘위로미’가 개발된 바 있습니다.
문제는 모든 내담자가 자신의 상태를 명확히 설명할 수 있는 것은 아니라는 점입니다. 서은경 대표는 내담자가 자신의 'being', 즉 현재의 감정적, 심리적 상태를 충분히 스스로 인지하지 못할 경우에는 AI 상담이 오히려 위험할 수 있다고 지적합니다.
이유 없이 눈물이 흐르는 등 갑작스러운 신체의 반응을 스스로 설명하지 못하고 그 자체가 위협이나 공포로 받아들여질 경우엔 AI와의 대화가 도움이 되기보다 혼란을 증폭시킬 가능성이 큰 겁니다. 이런 경우 대부분은 왜 이렇게 불안한지, 왜 갑자기 감정이 무너져 내렸는지를 스스로도 알지 못합니다. 하지만 AI는 이 같은 내담자에게도 상황을 이해하기 위해 추가적인 질문을 던집니다. 하지만 정작 내담자는 그 질문에 답할 마음의 여유조차 없거나, 이유를 모릅니다. 이럴 때 AI의 질문은 되레 생각을 더 꼬이게 하거나 스스로가 더 이상하게 느껴지도록 할 수 있습니다. 지금 느끼는 감정이 불안인지, 분노인지, 슬픔인지조차 명확하지 않기 때문에 '어떤 감정이 드셨나요', '그때 어떤 생각이 들었나요'와 같은 질문이 부담스럽게 느껴지는 것이죠. 상담이 도중에 단절되거나 회피로 이어질 수도 있습니다.
또 트라우마 경험이 있거나 정서 조절 능력이 급격히 흔들리는 경우에도 한계가 분명합니다. 이런 내담자들의 경우 감정이 올라오는 순간을 함께 견디고 안정화시킬 수 있도록 개개인의 특징에 맞는 적절한 개입이 무엇보다 중요합니다. 그러나 AI는 감정의 미세한 변화나 위기 신호를 실시간으로 포착하고 그에 맞춰 개입하는 데에 구조적인 한계를 가질 수밖에 없습니다. 결국 내담자가 스스로 감정을 감당하지 못한 채 더 깊이 자기 안으로 침잠하거나 불안을 혼자 떠안게 되는 상황이 발생할 수 있습니다. 이런 경우 AI의 역할은 내담자를 전문 상담이나 대면 관계로 이끌어 주는 보조 도구로서만, 제한적으로 활용될 필요가 있습니다.
이렇게 AI의 한계가 명확한 이유는 내담자의 비언어적 반응을 읽을 수 없기 때문일 것입니다. 실제 상담에서는 내담자가 하는 말 그 자체에 못지않게 말을 하는 방식도 굉장히 중요합니다. 말의 속도가 갑자기 느려지거나 빨라지지는 않은지, 목소리가 떨리는지, 눈을 피하는지, 몸을 웅크리는지 등 미묘한 신체 변화들이 내담자의 상태를 판단하는 중요한 단서가 됩니다.
하지만 AI는 내담자가 입력한 텍스트에 반응할 수밖에 없습니다. 차분해 보여도 실제로는 감정이 한계에 다다른 상황일 수 있는데, 이런 신호들을 AI가 읽어내기는 역부족이죠. 그 결과 내담자의 상태를 실제보다 안정적으로 판단하거나, 상황의 위험도를 낮게 인식할 가능성도 있습니다. 특히 트라우마 경험이 있는 내담자의 경우에는 더욱 주의가 필요합니다. 말보다 몸과 감정으로 먼저 나타나는 경우가 많기 때문입니다. 서 대표는 이런 경우 감정의 깊이나 위험 신호를 충분히 감지하지 못한 AI는 내담자에게 부담이 되거나 오히려 상태를 악화시킬 수 있다고 했습니다.
잡다한 AI 연구소는 실제 내담자의 상황을 가정해 챗GPT와 상담을 진행해 보았습니다. 각자가 가진 대면 상담의 경험을 살려, 도움을 구하는 내담자 입장에서 대화를 해 본 것입니다.
챗GPT는 감정적인 공감보다 여러 객관적인 기준과 근거를 들어 잘못된 행동이 아니라고 설명해 주었습니다. 내담자의 상황을 조금 더 넓은 시각에서 바라볼 수 있도록 도와주면서도 상황을 차분하게 정리한 것입니다. 감정을 단정하거나 평가하지 않았죠. 내담자를 향해 '자기 성찰 능력이 매우 높은 사람'이라고 표현하기도 했습니다.
이 프롬프트의 작성자는 비슷한 내용으로 실제 대면 상담을 받아본 경험이 있었습니다. 당시 상담사의 반응과 챗GPT의 반응은 일정 부분 비슷한 점이 있었습니다. 내담자에게 "당신은 자신의 감정을 비교적 잘 알고 있으며, 어떤 감정 때문에 힘든지를 스스로 인식하고 있다"며 "보통의 사람들보다 자기 이해 능력이 높은 만큼 회복이 빠를 것이다"라고 북돋아 주었던 것입니다. 이처럼 정서적으로 크게 흔들림을 겪고 있는 사람이 아니라면 챗GPT 상담이 일정 부분 도움이 되겠다는 생각이 들었던 이유입니다.
이번엔 보다 구체적인 행동 지침을 요구해 봤습니다. 단계적으로 해야 할 행동을 차근 차근 제시해 주었습니다. 역시 괜찮은 솔루션이라는 판단이 들었고, 실제 대면 상담 사례와 비교해 봐도 크게 다르지 않았습니다.
하지만 만약 이 두 가상의 상담 사례에서 내담자가 자신의 진짜 마음을 숨기고 프롬프트를 작성했다면, 안정된 말을 하면서도 눈동자는 흔들리고 몸은 떨리고 있었다면 어땠을까요. 설령 그랬다고 하더라도 AI는 이를 읽어낼 수 없었을 겁니다.
상담 분야에서의 챗GPT 활용의 가장 큰 장점은 아마도 내담자의 소위 ‘Yes, but…’ 반응의 반복에 좀처럼 지치지 않는다는 점일 것입니다. 심리적으로 궁지에 몰린 사람들은 상담가의 어떤 모범적인 답변 앞에서도 “알아요. 그래도요.” “하지만 그래도…”라는 말을 반복하곤 합니다. 아무리 위로와 용기를 건네도 끝없이 이어지는 불안의 소용돌이 앞에서, 상담가 역시 벽에 가로막힌 듯한 무력감을 느낄 수도 있겠죠.
하지만 AI는 다릅니다. 사람이 아니기 때문에 지치지 않고, 같은 말을 수없이 반복해도 언제나 친절하게 답합니다. 하지만 그 대화 속에서 우리가 마주하는 것은 따뜻한 위로라기보다는, 어쩌면 공허한 말들의 반복일지도 모릅니다. AI가 각 내담자의 마음 깊은 곳에 숨어 있는 고유한 강점과, 그 사람만의 존재 이유를 발굴해내지는 못하기 때문이겠지요. 인간 상담가 역시 정해진 프로토콜과 훈련을 통해 배워나가 점차 숙련된 상담가로 성장하지만, 실제 상담에서는 같은 증상을 보이는 내담자라도 각기 다른 해법을 제시한다고 합니다. 상담은 결국 내담자를 알아가고, 또 이해하는 일의 일부이기 때문입니다. 이 때문에 서 대표는 종종 내담자 한 사람 한 사람을 ‘금광’에 비유한다고 합니다. 겉으로는 보이지 않지만, 어딘가에는 반드시 빛나는 금이 묻혀 있다는 취지이죠. 상담가는 그 금광의 지형을 살피고, 어디를 파야 할지 함께 고민하는 사람입니다.
AI에게 사랑에 빠진 인간 남자를 소재로 해 화제가 되었던 영화 <HER>. 남자 주인공인 데오도르는 인공지능 '사만다'와 대화를 나누며 사랑에 빠집니다. 사만다는 그에 대해 판단하거나 조급해하지 않고, 언제든 안정적으로 응답하죠. 그가 어떤 말을 하든 “그럴 수 있다”라고 말해줄 준비가 되어 있는 셈입니다. 어떤 장면에서 사만다는 인간보다 더 인간적인 상담가처럼 비치기도 합니다.
하지만 영화가 진행될수록 분명해지는 사실이 있습니다. 사만다는 테오도르의 삶을 절대 대신 살아주지 않는다는 것이지요. AI 상담의 본질이 바로 이것에 가장 가까울 것 같습니다. 내담자의 이야기를 끝까지 들어줄 수 있고, 감정을 정리하는 데 도움을 줄 수 있으며, 때로는 생각보다 정확한 말로 위로를 건넬 수도 있겠죠. 하지만 상담의 핵심인 '함께 견디며 방향을 찾는 과정’까지 대신할 수 있는지는 여전히 의문으로 남아 있습니다. 상담은 단순히 '듣고 싶은 말', 혹은 '좋은 말'을 듣는 일이 아니라, 말 사이의 침묵과 망설임, 관계 속에서 생기는 미묘한 균열까지 함께 다루는 것이기 때문입니다.
사실 우리가 가져야 할 의문은, 왜 '사람들이 AI에게까지 마음을 털어놓게 되었을까'일지도 모르겠습니다. 어쩌면 더 안전하게 약해질 수 있는 공간에 대한 갈망이 있었던 것 아닐까요. AI는 그 공간으로 들어가는 길을 안내해 주고, 그곳 앞에 다다렀을 때 잠긴 문을 열어주는 역할은 할 수 있을 것입니다. 하지만 그 방 안으로 스스로 가야 하는 존재가 사람이듯, 그 앞에 앉는 누군가 역시 인간일 필요가 있다는 사실은 변치 않을 것입니다.
'잡다(Job-多)한 Ai 연구소'는 삼성언론재단의 지원을 받아 운영되고 있는 연구모임입니다. JTBC 이수진, 하혜빈 기자와 법률신문 김지현 기자 등 3~8년 차 주니어 기자 8명이 함께하고 있습니다. 매달 1개의 직업을 선정해 챗GPT나 퍼플렉시티 등, 우리가 쉽게 접할 수 있는 Ai가 그 직업을 얼마나, 어디까지 대체할 수 있는지 점검해 보고 있습니다.