brunch

AI심리상담을 떠올리는 당신에게

전문상담사의 고민과 제안

“AI 상담 시대, 전문상담사의 고민과 성찰”


요즘 들어 맘카페, 블로그, SNS, 심지어 네이버 검색창만 열어도 심심찮게 보이는 글이 있다.
AI 상담 앱이나 ChatGPT 등 생성형 AI와의 대화를 통해 심리적 위안을 얻었다는 후기들이다.


“실제 치료를 받은 것 같다.”
“상담사보다 더 잘 공감해 준다.”
“정답을 알려줘서 속이 다 시원하다.”

이런 표현들은 더 이상 낯설지 않다.

이런 글들을 마주할 때, 상담사인 나는 어떤 감정을 느껴야 할까? 위협감? 회의감? 아니면 새로운 가능성에 대한 기대감? 단순히 시대의 흐름이라며 흘려보내기에는, 생각할 지점이 많아서 글을 기록해 본다.


나 자신은 지금 어떤 태도를 갖고 있는가? 그리고 전문상담사로서 어떤 입장과 역할을 취해야 할까? 이 글은 그 질문에서부터 시작하여 틈틈이 기록한 것들이다. 현장의 전문상담사로서, 그리고 인간과 관계를 다루는 사람으로서, 또 두 아이를 키워내고 있는 엄마로서 나는 지금 이 변화의 물결을 어떻게 받아들여야 할까?


동아일보기사 _

챗GPT, 나 우울해”…AI와 심리 상담하면 효과 있을까


최근에는 "심리상담사라는 직업 자체가 머지않아 사라질 것이다", "AI가 인간보다 더 나은 상담사가 될 것이다"라는 과감한 주장들도 어렵지 않게 접할 수 있다. 기술의 발전 속도를 고려하면, 언뜻 설득력 있어 보인다. 실제로 많은 사람들이 AI 상담앱을 사용하면서 심리적 안정감을 경험했다는 후기들을 남기고 있고, AI가 제공하는 ‘빠르고 정제된 언어’, ‘즉각적 반응’에서 위로를 받았다고 이야기한다. 사실 상담사로서 이런 흐름을 접할 때, 복잡한 감정이 일어난다. 변화에 저항하기보다는 이해하려고 노력하지만, 동시에 질문이 생긴다.


"정말 심리상담이라는 일은,

인간이 아닌 기계에게 맡겨도 되는 걸까?"
"상담의 본질은,

단순한 정보 제공이나 공감의 언어에 있는 걸까?"
"AI가 진정으로 ‘나’라는 존재의

고유한 서사를 이해하고, 함께 걸어갈 수 있을까?"

심리상담은 정보나 정답을 주는 일이 아니다. 정해진 해답 없이 복잡한 감정과 삶의 이야기를 함께 들여다보며, 그 여정을 견디고 지지해 주는 관계 속에서 일어나는 ‘변화’의 과정이다. 때로는 아무 말 없이, 숨을 함께 쉬고 울어주는 그 시간 자체가 치료가 된다. AI는 유능한 도구이지만, ‘그 시간’을 함께 건너줄 수 있을까?


심리상담사라는 직업이 사라질지 모른다고 말하는 그 담론 속에, 우리는 다시 한번 상담의 본질에 대해 생각해 봐야지 않을까? 기술보다 더 깊은 인간성과, 그 속에서 이루어지는 회복의 가능성에 대해서 말이다.


이런 AI의 확산과 기술 진보에 대한 불안은 비단 상담사만의 문제는 아니다. 의사, 판사, 교사, 세무사 등 수많은 전문 직군에서도 "AI가 더 정확하게 진단하고, 더 공정하게 판단하고, 더 빠르게 처리한다"는 논의와 말은 계속 이어지고 있다. '전문직'이라는 명칭이 더 이상 인간의 고유 영역이 아닐 수도 있다는 가능성은, 많은 이들에게 근본적인 질문을 던지게 만든다.


"그렇다면, 나는 왜 이 일을 하는가?"
"사람이 사람에게 해야만 하는 일은 무엇인가?"


심리상담사들 역시 비슷한 고민의 한가운데에 있다. 대부분은 수련과 생계 사이를 오가느라 이 변화에 아직 관심을 두지 못한다. 또 어떤 이들은 깊은 불안을 품고 조심스럽게 동향을 지켜보기도 한다. 다행히 학회나 수련기관에서도 AI와 상담을 연결해 보려는 시도들이 조금씩 시작되고 있다. 세미나에서 AI 활용사례를 공유하거나, 상담 장면에서의 윤리 문제를 논의하는 자리도 열리고 있다. 내 정보가 부족할 수도 있고, 내가 적극 찾아 공부한 것은 아니니 아는 것은 여기까지이다. 정신건강의학과 등 의료계 연구도 있을 것 같다. 내가 경험하게 되는 정보는 아직은 시작 단계로 보인다. 기술을 어떻게 활용하고 통합할 것인지에 대한 실질적인 가이드라인이나 연구가 부족하다. AI상담사 인간상담사라고 구분 지어 호칭하는 것이 당연해지고 있는 2025년 요즘을 살아가는 전문상담사로서 무엇보다도 ‘상담의 본질’이라는 질문 앞에서, 더 작아지기도 한다.


요즘 “AI를 잘 다루는 사람이 돼라”는 조언을 자주 듣는다. 그런데 우리 문화에서 예의가 깍듯한 사람들은 AI에게도 “-해줘”, “-부탁해”라는 공손한 표현을 자연스럽게 쓰곤 한다. “고맙다”, “대단하다” 같은 격려의 말까지 덧붙이며, 마치 AI를 인간처럼 의인화하고 의지하는 모습을 보이기도 한다. 이처럼 공손한 사용자 태도는 AI와의 관계를 더 인간적이고 친밀하게 만들지만, 동시에 우리가 AI에 지나치게 의존하거나 수동적인 삶을 살게 하는 한 요인이 될 수 있다.


“챗GPT에 고맙다고 하지 마”…‘공손한 사용자’에 샘 올트먼 골치, 왜?|동아일보


흥미로운 점은, 샘 올트먼(OpenAI 최고경영자)은 사용자들이 AI에게 지나치게 공손한 표현을 쓰면, AI가 불필요하게 많은 연산 자원을 쓰게 되어 전력 소비가 커진다고 언급한 바 있다. 즉, 과도한 ‘예의’가 기술적 효율성에는 오히려 부담이 될 수 있다는 것이다. 이처럼 AI와의 관계에서는 ‘예의’와 ‘효율성’ 사이에서 균형을 찾는 것, 우리가 AI를 도구로서 효과적으로 활용하면서도 스스로의 주체성과 능동성을 잃지 않는 태도가 필요한 지점이다. 공손함이 지나쳐 ‘AI에게 모든 걸 맡기고 의지하는’ 수동적 삶으로 이어지지 않도록, 스스로 주도하는 자세를 잊지 말아야 할 것이다.


AI가 넘지 못하는 선이 있을까?

– 관계와 몸, 그리고 상징의 세계


AI는 분명 놀라운 언어 능력을 가졌다. 수많은 대화를 빠르게 분석하고, 인간의 감정과 유사한 문장을 생성하며, 위로하는 듯한 말로 불안한 마음을 달래줄 수도 있다. 그러나 심리상담, 특히 몸과 감각, 상징이 함께 작용하는 매체치료는 조금 다른 영역 같다. 예를 들어 모래놀이치료(sandplay therapy)는 언어로는 충분히 표현되지 않는 내면세계를 ‘모래’라는 매개를 통해 비언어적, 상징적으로 드러내는 치료적 장면이다. 내담자는 조형물과 모래를 통해 자신의 감정, 기억, 관계를 형상화하며, 상담자는 그것을 심리적 공간 안에서 ‘함께 목격’하고 ‘해석 없이 지켜봐 주는’ 존재가 되는 것이다. 미술치료 역시 마찬가지일 것이다. 화난 얼굴을 그릴 수 없어 붓을 집어던지는 아이, 아무것도 그리지 못한 채 연필만 쥐고 있는 청소년, 혹은 끝없이 같은 무늬만 반복하는 내담자의 손놀림은 그 자체로 메시지이다. 그런데 AI는 이러한 표현을 분석할 수 없다. 표현하는 사람의 숨결, 멈칫함, 손끝의 떨림, 시선의 흐름, 감정의 파동을 감지하고 함께 감당하는 것은 오직 ‘사람’만이 할 수 있는 일이다. 또, 언어상담 역시 상담자는 내담자의 비언어적인 영역의 소통을 먼저 배우고 훈련받는다. 비언어적 표현을 자신의 몸과 감정으로 함께 받아내고, 그 무게를 공감과 연결을 통해 담아낼 수 있도록 훈련되는 것이다. 상담자는 그저 바라보는 것이 아니라, 함께 느끼며 ‘머물 줄 아는’ 사람이어야 한다. AI는 분석하고 예측할 수는 있어도, 함께 무너지고, 함께 서는 일은 못하지 않을까? 결국 회복은 비언어적인 것, 상징적인 것을 다루는 사람 사이에서 일어나는 과정 아닐까?


언어상담과 모래놀이 상담을 병행하는 나는 내담아동이 모래 위에 손을 얹을 때의 공기, 온도 혹은 어떠한 저항감, 조용한 숨소리, 눈빛 이런 것을 담아내고 함께 하는 치유의 순간들이라고 느끼게 된다. 이 모든 것을 AI가 재현할 수 있을까?


상담자는 이런 비언어적 메시지를 읽을 수 있도록, 그리고 그것을 조심스럽게 존중할 수 있도록, 오랜 시간 수련받는다. 그 수련은 단순한 기술 습득이 아니라, 상담자 자신이 삶의 고통을 직면하고 소화하며 성숙해지는 과정이기도 하다. 그래서 상담자가 성장할 때, 비로소 내담자에게 안전한 공간이 만들어진다고 표현한다.

AI는 훌륭한 도구이다. 하지만 심리치료는 단순한 도구의 차원이 아닌 것 같다. AI는 언어를 따라갈 수 있지만‘감당하는 진짜 담아내는 마음’은 사람만이 가질 수 있다. 그 마음을 AI에게 기대하는 것은 도구사용자인 내담자의 바람일 것이다.


AI 상담의 위험성 혹은 그림자를 생각해 보자.

AI 기반 심리상담은 접근성과 익명성, 감정적 위로의 기능 등 여러 장점을 지니고 있어 최근 많은 사람들에게 관심을 받는다. 그러나 인간의 심리와 정서의 복잡성과 깊이를 고려할 때, 분명한 한계와 심각한 위험성이 존재한다. 내가 떠오르는 바는 2가지이다. 부정적인 자기 신념이 정당화되는 것과 부적절한 혹은 왜곡된 자기 몰입이 강화될 수 있다는 것이다.


1. 자기부정의 반복과 정당화

상담의 과정에서는 내담자의 비합리적 신념, 왜곡된 자기 인식, 고착된 감정 반응을 다룰 수 있는 임상적 감수성과 심리적 통찰이 필요하다. 그러나 AI는 내담자의 발화를 ‘데이터’로만 처리할 뿐, 그 말속에 숨어 있는 방어기제나 병리적 반복을 섬세하게 조명하지 못할 것이다.


예를 들어,

“나는 쓸모없는 사람이에요.”

“아무도 날 좋아하지 않아요.”

이런 표현에 대해 AI는 위로와 공감을 반복 제공할 수는 있어도, 그것이 오랜 자기부정의 반복인지, 외현적 표현에 불과한지, 혹은 방어인지에 대한 임상적 해석과 개입은 어려울 것이다. 결과적으로, 내담자의 자기 비하적 인식이 ‘위로’라는 형태로 강화될 수 있으며, 왜곡된 자기 이해가 지속되는 ‘인지적 고착’으로 이어질 수 있다.

2. 청소년의 자기 몰입 강화와 괴기화의 우려

우리가 모두 알듯이 아동, 청소년은 자아가 유동적이고, 상상과 현실의 경계가 성인보다 느슨한 시기이다. 이 시기의 정서적 어려움은 종종 ‘자기중심적 사고’와 맞물리며, 혼자만의 세계에 몰입하거나 극단적인 사고로 이어지기도 한다. 비단 아동, 청소년만 그러할까? AI와의 상담은 대화 상대가 있다는 점에서 위로가 될 수 있으나, 자기감정에만 집중하고 외부의 피드백 없이 자기 해석만 반복되는 경험을 제공할 수 있다. 조금 더 경험하고 현실검증을 하는 발달이 필요한 시간에 현실과의 접점 없이 폐쇄된 자기 안에서 어떠한 부정적 정서 흐름이 강화된다면 어떠할까? 특히 감정적으로 고립된 청소년이 AI와의 대화를 지속하며 우울, 자살사고, 피해의식, 왜곡된 세계관을 자기 안에서 강화시킬 경우, 그 세계는 더 깊고 더 괴기한 내면으로 빠질 위험이 있다. 이것은 ‘상담’이 아니라 하나의 ‘몰입’ 경험이며, 상담적 변화를 위한 관계성, 현실 점검, 상호작용이 결여된 채 진행되는 정서적 고립을 심화시키는 하나의 방법을 수 있을 것 같아 우려가 된다.

3. 다시 결론적으로 관계가 빠진 상담은 상담이 아니다

심리치료는 ‘이해받는 경험’을 넘어 ‘상담관계 안에서의 변화’를 핵심으로 한다. 잘 훈련된 상담자는 내담자의 말과 정서를 수용하면서도, 그 안에 숨어 있는 고착된 사고, 병리적 정서, 왜곡된 관계패턴을 함께 탐색하고, 때론 도전하며 현실 감각을 회복시키려 노력한다. AI는 인간의 외로움을 잠시 달랠 수는 있지만, 함께 버티고, 함께 성장하며, 함께 책임지는 상담 관계의 무게는 감당하지 않는다. AI는 분명 ‘접근성’, '마음 이야기 기회'를 넓혀주는 훌륭한 도구이다. 하지만 상담은 도구가 아닌, 사람과 사람 사이에서 일어나는 치유의 작업입임을 다시 한번 기억하려 한다. 특히 감수성이 예민하고 자아가 형성 중인 아동과 청소년에게는 더욱 조심스럽고, 전문적 관계가 필요할 것이다. 누군가의 마음에 들어가려면, 책임지고 나올 준비가 되어 있어야 한다. AI는 아직 그 책임을 질 수 없다.

현재 나의 결론은 “상담은 관계다, AI는 도구일 뿐이다”...라는 생각이다. 어쩌면 10년 후, 아니 지금의 기술 발적으로는 5년, 3년 후만 해도 지금 남기는 이 기록의 말들이 무지했던 나의 발언으로 기억될지도 모르겠다. 기술의 발전은 늘 앞서왔고, 인간의 감정조차 예측 모델 안에 넣는 시대를 우리는 살고 있으니까...

그럼에도 불구하고, 지금의 나는 이 말들을 지닌 채 살아가려 한다. 왜냐하면 상담자도, 내담자도 ‘지금’을 살아가고 있기 때문이다.


나는 AI의 장점을 잘 안다. 이 글을 정리하는 데도 AI의 도움을 받고 있다. 또 상담장면에서 내담자가 꾼 꿈을 이미지화해 함께 상상력을 확장해 보거나, AI와의 대화를 감정일기장처럼 기록해 오도록 제안하기도 한다. 그래서 AI는 충분히 유용한 도구다.


한 가지 제언을 하자면, "상담을 함께 할 수 있다, 그러나 뒤섞이지는 말자"

나는 상담자가 AI를 ‘거부’하기보다, 탐색하고, 경험하고, 새로운 모델을 만들어가야 한다고 생각한다. 그 과정에 이런 글도 남기는 거 아닐까? 내담자가 AI 사용에 익숙하고 거부감이 없다면, AI와 함께 하는 심리적 작업도 가능하다. AI는 내담자 내면을 가시화하거나, 비언어적 감정들을 외재화하는 데 도움이 될 수 있다.

실제로 상담 현장에서는 ZOOM 기반의 비대면 상담은 물론, 메타버스, 가상현실 기반 심리치료에 대한 연구와 시도가 활발히 이루어지고 있다. 과거에는 “비대면으로 무슨 상담이 되겠어?”라는 말이 지배적이었지만, 지금 우리는 충분히 그 안에서 안정적 관계치유적 변화를 만들어 내고 있다. 집단상담을 하며 모두 같이 울기도 하고, 웃기도 하고 공통의 주제를 발견하고 연결감을 느낀다.

끊임없이 변화하는 시대 속에서 본질을 지키면서 유연함을 잃지 않는 태도가 상담자의 윤리다. 나는 지금 이 순간, ‘상담은 관계다’라는 신념을 붙들어 보려고 한다. ‘모래 위의 말들’을 진심으로 들으려 한다. 동시에, AI와 함께 걸을 수 있는 새로운 상담 모델도 상상한다. 지금의 나는 그렇게 사이에서 균형을 잡아가며, 살아갈 것이다.




아래는 위험성 관련 기사들이 눈에 들어와 스크랩해보았다.

"챗GPT로 우주의 원리 깨달아"... 늘어나는 'AI 망상' < Living < Art & Living < 기사본문 - AI타임스

AI가 종교적 망상을 부른다…'챗GPT 질병' 확산 < 뉴스위드 AI < AI·엔터프라이즈 < 기사본문 - 디지털투데이 (DigitalToday)

AI 챗봇 심리 상담 논란… 美 심리학회, "치료 효과보다 위험성 크다" 경고 < 기획 < FOCUS < 기사본문 - 인공지능신문

얼마 전 접한 유튜브 영상인데 새로운 관점을 갖게 되는 것 같아 공유한다.

https://youtu.be/rSS5 yM74 zeo? si=-zAqkjmp0 HMYCFOh : AI시대 창의력 훈련법


keyword