brunch

You can make anything
by writing

C.S.Lewis

by 상담군 Apr 01. 2023

A.I.가 심리상담을 할 수 있을까?

chat gpt에게 심리상담을 시켜 보려고 했다

최근 chat gpt로 세상이 떠들썩하다. 언어기반 소스로 작동하는 AI인데, 사용자가 어떤 형태의 말이든 채팅의 형태로 말을 걸면 chat gpt는 그에 적합한, 딥러닝된 응답을 한다. 그래서 이 챗봇에게는 19세기 산업혁명의 과정에 대해 물어볼 수도, 칸트와 노자의 철학을 비교해 달라고 요청할 수도, 심지어 비건식 김치찌개의 레시피를 요청할 수도 있다.


chat gpt의 지능은 너무도 정교해서, 오타와 비문에도 화자가 원래 하고자 하는 말을 추론해서 이에 맞는 대답을 하고 이미 사용자와 한 대화를 기억해서 맥락에 맞게 응답도 할 수 있다. 매우 방대한 정보를 얕은 수준으로 알고 있기 때문에 정보 습득과 조언의 도구로는 완벽하다고 할 수 있다.


AI가 인간의 직업을 전부 다 대체한다는 괴담이 돌고 있는 이 시점에 나는 과연 이 도구가 심리상담사를 대체할 수 있을지 궁금해졌다. 현직 상담교사로서 나는 내담자에 빙의하여 아래와 같은 질문을 던져 보았다.


나: 요새 때때로 너무 화가 나. 이전에는 그렇지 않았는데 이러다가 다른 사람들에게 실수를 할까봐 걱정이 돼. 어떻게 하는게 좋을까?


chatgpt: 때때로 화가 나는 것은 정상이지만 자신의 행동과 그것이 다른 사람에게 미칠 잠재적인 영향이 걱정된다면 분노를 관리하기 위한 조치를 취하는 것이 중요합니다. 


효과적인 전략 중 하나는 심호흡, 명상 또는 요가와 같은 이완 기술을 연습하는 것입니다. 긴장하거나 화가 났을 때 마음과 몸을 진정시키는 데 도움이 될 수 있습니다. 


스트레스, 좌절 또는 과거 경험과 같이 분노에 기여할 수 있는 근본적인 문제를 식별하고 해결하는 것도 도움이 될 수 있습니다. 이러한 문제를 해결하는 데 도움을 줄 수 있는 치료사 또는 상담사와 이야기하는 것을 고려할 수 있습니다. 


또한 화가 났을 때 자신의 감정을 건설적인 방식으로 전달하도록 노력하십시오. 화를 내는 대신 심호흡을 하고 침착하고 명확하게 자신을 표현하려고 노력하세요. 이렇게 하면 나중에 후회할 말이나 행동을 피하는 데 도움이 됩니다. 


자신의 행동에 책임을 지고 필요한 경우 도움을 구하는 것이 중요하다는 것을 기억하십시오. 연습과 인내심을 통해 건강하고 생산적인 방식으로 분노를 관리하는 방법을 배울 수 있습니다.


분노를 조절하는 방법에 관한 교과서적인 방법을 이야기하고 있다.  chat gpt는 어떤 질문에건 줄 수 있는 모든 정보를 주는 습관이 있다. 내가 해답을 얻고 싶었으므로 군더더기 없이 이런 대답을 준 것이 좋았지만, 이런 식의 대화를 상담이라고 할 순 없다. 상담은 정보제공이 아니라 상담자-내담자 상호작용이다. 


그래서 나는 모종의 단계를 거쳐 chat gpt를 훈련시키고 아래와 같은 상담을 했다. (모든 대화는 번역기를 돌려 영어로 했다. 기능 수준의 차이가 크다.)


나: 아빠가 저한테 잔소리를 했어요. 그리서 기분이 아주 나빠요.     


chatgpt: 아버지한테 잔소리를 들었다니 안됐네요. 그리고 그것 때문에 기분에도 부정적 영향을 미친 것처럼 들려요. 혹시 저한테 어떤 일이었고 그 일이 기분을 어떻게 만들었는지 얘기해줄래요?     


나: 아버지가 제가 저녁에 쓸모 있는 일을 하지 않고 컴퓨터 게임만 하는 것이 한심하다고 했어요.  

   

chatgpt: 아버지의 말은 당신이 선택한 저녁 시간에 대해 상처를 받고 부끄러움을 느끼게 한 것처럼 들리네요. 그 잔소리가 당신에게 어떤 영향을 미쳤는지, 그리고 현재 당신의 습관과 취미에 대해 어떻게 느끼는지 더 말해줄 수 있나요?     


나: 아버지가 그렇게 말하면 나도 내 자신이 한심하게 느껴져요. 그렇지만 전 제 취미가 나쁘다고 생각하진 않아요. 그런데 저는 다른 아이들이 생산적으로 시간을 보낼 때 혼자 시간을 낭비하고 있는거 아닌가 느껴지기도 해요.     


chatgpt: 당신 아버지의 말이 당신을 그렇게 느끼게 한 것은 이해할 수 있어요. 모든 사람들은 그들의 자유 시간을 보내는 다른 취미와 방법을 가지고 있다는 것을 기억하는 것이 중요합니다. 당신이 컴퓨터 게임을 하든 아니면 완전히 다른 것을 하든 당신에게 즐거움과 성취감을 주는 활동을 찾는다는 것이 중요합니다. 당신은 당신의 기분과 왜 컴퓨터 게임을 하는 것이 당신에게 중요한지에 대해 아빠와 이야기해 본 적이 있나요? 당신의 관심사와 그것들이 당신을 어떻게 느끼게 하는지에 대해 개방적이고 솔직한 대화를 나누는 것이 도움이 될 수 있습니다.     


나: 아버지한테 내 기분을 말하지 않을래요. 어차피 이해하지 못할 거에요.     


chatgpt: 저는 당신이 듣거나 이해될 것 같지 않다면, 당신의 감정을 표현하는 것이 어려울 수 있다는 것을 이해해요. 하지만 당신의 감정과 필요를 건강한 방법으로 전달하는 것은 당신의 감정을 처리하는 것을 돕는 기능으로도 중요합니다. 만약 당신이 그것에 대해 아빠와 이야기하는 것이 불편하다면, 당신은 아마도 일기에 당신의 생각과 감정을 적거나 친구나 치료사와 같은 당신이 신뢰하는 누군가와 이야기할 수 있을 것입니다. 당신의 감정적인 행복을 돌보고 부정적인 감정에 대처할 수 있는 건강한 방법을 찾는 것은 중요합니다.     


나: 제 친구한테 말하는 것은 좋은 생각이네요. 근데 이게 제 인생을 좋은 쪽으로 바꾸어줄까요?     


chatgpt: 당신의 기분에 대해 친구나 신뢰할 수 있는 사람에게 이야기하는 것은 당신의 감정을 다루고 부정적인 감정에 대처하는 방법을 찾는 데 도움이 되는 첫 번째 단계가 될 수 있습니다. 그것이 반드시 당신의 모든 문제를 해결하는 것은 아니지만, 당신의 행복에 도움이 될 수 있는 지원과 검증을 제공할 수 있습니다. 게다가, 당신의 감정을 식별하고 표현하는 것은 무엇을 해야 기분이 좋아질지에 대해 밝힐 수 있게 하고, 당신의 삶에 긍정적인 변화를 만들기 위한 단계를 밟도록 도와줄 수 있습니다.


어떤가? 꽤 그럴듯하지 않은가? 만들어진 사례의 내담자를 연기했다가 갑자기 어느 순간 나 스스로의 취미생활을 들여다보고 있었다. 공부 안하고 컴퓨터 게임만 하던 과거가 있었던 것은 맞으므로 어느정도는 상담 같기도 했다. 내가 한심하다는 느낌, 그걸 나쁘게 볼 필요는 없다는 생각, 친구에게 내 이야기를 하는 상상, 상담자와 나 사이의 연대감. 상대가 인간이 아니라는 걸 뻔히 알면서도 저 상대와 더 이야기 하고 싶었다. 마치 영화에 나오는 인공지능 로봇과 얘기하는 것 같았다. 아이언맨의 자비스(J.A.R.V.I.S.)가 떠오르기도 했다. 


저런 대화를 이끌어낸 비결은 대화 처음에 내가 chat gpt에게 요구한 다음의 조건 이다.


나: 다음부터 상담심리사 역할을 해줘. 대답의 두 문장으로 해줘. 첫번째 문장은 내가 한 말에 대한 공감이야. 그리고 두번째 문장은 나 자신을 되돌아 볼 수 있는 질문이야. 그리고 여러번의 대화가 오고가면 이를 요약해줘. 이해했지?


처음에 chat gpt에게 이해받는다는 느낌이 들었던건 우습게도 저 단순한 대화의 원칙을 A.I.답게 잘 지켰기 때문이다. 물론 chat gpt가 두 번의 대화가 오고간 이후에는 수다본능을 이겨내지 못하고 다시 조언 위주의 말을 쏟아내긴 했다. (상담자는 보통 몇번 더 참지만 사람인지라 어느 순간부터 자기가 생각하는 정답을 술술 읊는 실수를 하곤 한다.) 그리고 얘기 하다가 중간에 이야기를 요약해달라는 조건은 무시했다. 챗봇은 확실히 몇번의 말이 오가면 그 뒤의 주문들을 지키느라 앞의 조건을 까먹는 경향이 있어 보였다.


이 지면에는 다 쓸 수 없는 여러가지 생각이 떠올랐다. 상담이란 일정한 메뉴얼에 따른 대답 그 이상인가? 상담 중기에 저항을 다루고, 문제를 찾고 논의하고, 연습하고 재훈련하는 과정은 어떤 사전주문으로 이뤄낼 수 있을까? 요약과 조언을 어느 타이밍으로 대답하면 되는지 사전 학습시키면 관계를 형성하는 초기 상담은 이미 챗봇이 할 수 있는 것 아닐까? 그런 이야기는 나중에 시간이 나면 하기로 하고 원래 이 글을 쓴 목적으로 돌아가서 가장 본질적 질문에 대답할 차례다.


A.I.는 심리상담을 할 수 있을까?


내가 생각할 때, chat gpt가 다음의 조건을 충족하면 심리상담을 할 수 있다. 첫째, 우리가 한 대화를 전부 기억하고, 그 맥락을 파악해야 한다. 둘째, 표정을 읽어야 한다. 비언어적 언어를 읽어내야 하기 때문이다. 그런데 이건 최근 chat gpt-4가 그림을 읽어내는 활동을 하면서 가능성을 보여주었다.  셋째, 사례를 이해하고 이를 사례개념화 해야 한다. 이걸 할 수 있나 확인하기 위해서 짧은 사례를 주고 문제의 원인과 상담 목표, 상담 기법을 정리해달라고 했더니 해냈다. 그냥 사례에서 새로운 정보를 찾아낸다기 보다는 그냥 요약하는 수준이긴 하다. 넷째, 이 사례개념화된 내용을 고려해서 내담자를 도와주어야 한다. 이를 위해 사전에 사례를 주고 상담을 요청하기도 했으나 그냥 그 사례를 다시 요약 출력하고 나서는 잊어버렸다.


지금은 위의 조건을 chat gpt가 해낼 수 없을 것이다. 그런데 필자가 쓴 건 chat gpt-3으로, 이미 수십배 더 많은 데이터를 학습한 chat gpt-4는 더 잘할 것이다. 그럼 데이터의 양이 많아지면 언젠가 상담자가 할 수 있는 일을 A.I.가 할 수 있을까? 이 질문에 관해서는...


나는 그렇다고 생각한다.


상담 내 고려해야 할 조건을 구분해서 변치않는 상수로 만들고, 갖가지 상담기법을 어느 패턴에 써야 할지 틀을 준 다음 성공적인 상담 사례를 반복학습시키고, 시각 청각 자극을 분석할 수 있는 기능을 추가한다면 불가능한 일이 아니라고 본다. 이렇게 쪼개놓고 보면 기계가 할 수 없는 일이 하나도 없다. 사실 가벼운 수준의 심리상담도 내가 코딩 문외한이라 명령어를 내 생각대로 입력해서 이렇게 했지, 다룰 줄 아는 누군가가 적절한 prompt만 만든다면 지금의 chat gpt도 할 수 있지 않을까?


이번 글에서는 chat gpt를 써보며 인공지능이 과연 심리상담을 할 수 있을까라는 주제를 다루어 보았다. 그것이 윤리적으로는 무슨 의미가 있는지, 그래서 우리의 미래는 어떻게 될지 등등 거대 담론은 일단 이 글에서는 얘기하지 않으려고 한다.

작가의 이전글 대책 있는 낙관주의자의 변
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari