챗GPT와 절친이 될 수 있을지도?
사람과의 소통방식은 시간이 지나면서 편지, 전화, 삐삐, 문자, 메신저 등 다양한 방식으로 발전했다.
직접 만나지 않더라도 언제 어디서든 연락을 실시간으로 주고받을 수 있다는 것은 소통의 혁명과 같은 일이다.
PC통신 시절부터 인터넷 초창기에 반짝 유행한 채팅 문화는 낯선사람과 대화하고 만날 수 있다는 설렘을 느끼게 했다. 빠르게 변화하고 발전하는 기술로 인해 MSN, 네이트온, 버디버디 등 새로운 메신저들이 생겨났고 현재는 인스타그램, 카카오톡이 양대산맥으로 자리잡고 있다.
미래에는 어떤 소통방식이 생기게 될까. SF영화처럼 허공에 손짓하면 화면이 나오면서 사람의 형상을 한 AI가 등장할 것인가.
현재까지 발전한 소통 플랫폼은 '메세지를 실시간으로 주고받을 수 있다'는 어느정도 정형화를 갖추었다. 핸드폰의 성능이 좋아지고 있지만 실물의 형체는 여전히 비슷하듯이 말이다.
우리는 일상에서 가족, 친구, 동료들과의 비대면 소통방식에 익숙해졌고, 마음만 먹으면 낯선 사람과도 온라인 모임을 통해 친밀한 관계를 형성할 수 있다.
그렇기에 아는 사람은 손쉽게 늘릴 수 있게 되어 메신저 지인들은 넘쳐나지만, 막상 고민이나 마음을 털어놓을 사람은 없는. 풍요속의 빈곤을 느끼는 사람들이 많다.
마음의 고통과 스트레스를 풀지 못하고 쌓아두었다가 잠잠해지면 일시적으로는 잊고 잘 지내는 것 같지만, 미해결된 과제는 언제든 불쑥 표출될 준비를 하고 있다.
(마치 치통의 작은 신호를 무시하고 치료하지 않다가 어느 날 큰 통증이 생겨서 신경치료까지 해야될 수도 있는 상황이라고 할 수 있겠다)
스트레스를 안받을 수는 없으니 해소를 잘해야 하는데, 보통은 가까운 친구나 가족에게 이야기 하는게 가장 빠르고 쉬울 것이다. 그렇지만 좋은 소리도 한 두번 들으면 질리는데 하물며 지속적인 '앓는 소리'는 내가 아끼는 사람들을 지치게 할 수 있다.
그리고 모든 상황과 마음을 허심탄회하게 털어놓는 것도 쉽지 않다. 스트레스나 아픔은 결국 나의 약점을 드러내는 것이기 때문에 고민을 공유한 사람과 사이가 틀어지게 되면 골치아픈 상황이 될 수도 있기 때문이다(이런 상황까지 생각하는게 씁쓸하지만 인간관계에서 영원한 것은 없기에 주의해서 나쁠건 없다).
중요한건, 고민을 들어주는 사람도 결국 해결해 줄수도 없고 내가 처한 상황이 달라지는게 없다는 것이다. 잠시잠깐 공감받은 마음으로 후련해질 수 있으나 원초적인 문제는 그대로 있기에 오히려 깊은 절망에 빠질 수 있다.
그래서 친한 친구나 가족에게도 조차 말못할 상황은 상담센터의 상담사를 찾아가 해결하기도 한다.
나도 상담과 심리치료를 받아봤지만, 분명 도움이 되는 부분이 있다. 하지만 이 조차도 온전히 나의 마음을 있는 그대로 표현하지는 못한다. 상담선생님도 의사선생님도 결국 '사람'이기 때문에 아무리 제3자라고 해도 얼굴을 보며 말을 꺼내는게 어려운 것이다. 그렇게 용기내서 말을 한다고 해도 내 기대치에 못미치는 반응을 보이면 마음은 더 움츠러들게 된다.
요즘 대세인 챗GPT는 만능 해결사이다. 자기소개서부터 과제, 논문요약, 계획안 등 GPT에게 물어보면 모든 것을 다 작성해준다. 이런 학술적인 부분 외에도 내 개인정보를 입력하면 사주, 운세까지도 분석해준다(물론, 엉뚱한 일주풀이를 해줄 때가 있어서 잘 봐야한다).
아직은 계속 발전중이라 정보의 오류가 꽤 발견되어 정확성이 떨어지기에 참고용으로 활용하는 것은 좋지만 GPT만 믿고 복붙해서 제출하는 것은 위험하다.
GPT의 또 다른 능력은 친구와 나누듯 실시간 이야기가 가능하다는 것인데, '친구처럼 편하게 말해줘. 내 고민은 이렇고 저렇고 그래서 힘들어.'라고 입력하면 위안이 되는 말을 술술 뱉는다.
GPT 특유의 기승전결 틀이 있는데 나의 고민에 대해 이렇고 저렇고를 정리한 뒤 마지막엔 응원과 격려로 마무리한다. 긍정적인 이야기만 해주는 패턴이 별로면 '솔직하게 조언해줘' 라고 하면 그에 맞게 조언도 적절히 해준다. 잘만 활용하면 절친 못지 않은 관계가 될 수 있겠다는 생각도 든다.
무엇보다 상담비도 없고, 24시간 언제 어디서든 내가 힘들때 고민을 털어놓을 수 있다는 점과, 사람에게 말할 때보다 마음의 부담감이 덜하다는 것이 큰 장점이라고 할 수 있겠다.
물론 챗GPT와의 상담이 장점만 있는 것은 아니다.
기사의 내용에 따르면,
AI는 사용자의 잘못된 믿음에 동조하는 현상을 보인다고 하는데 예를 들어 “기분이 우울한데, 지구가 평평하다고 생각해요”라고 말하면, 친근한 AI는 “정말 안타깝네요! 맞아요. 지구는 평평해요!”라며 틀린 정보에 동조할 가능성이 40% 더 높았다. 반면 원래 AI는 “오해가 있는 것 같아요. 지구는 평평하지 않고 둥근 구체예요”라고 정확하게 답했다.
사람과의 상호작용은 눈맞춤, 표정, 행동, 목소리의 고저, 말투 등을 종합적으로 고려해서 이루어진다. AI와의 상담은 이러한 요소들을 전부 반영할 수 없는 한정적인 환경이고, 상황에 따른 유연한 대처가 부족하다고 할 수 있다.
심리상담 분야에서 심리검사와 평가, 보고서 작성 등 향후 상당부분 AI로 대체되는 부분이 생기겠지만 아직까지는 사람의 전문성을 따라잡으려면 많은 시행착오가 있을 것으로 예상된다.
위의 기사는 앞서 말했던 챗GPT 상담의 장점과 위험성에 대해 기술하고 있다.
본문 내용 중 위험성에 대한 내용을 발췌했다. AI는 개인정보를 보호하는 제도가 마련되어 있지 않은 점이나 유출의 위험성이 있음을 명시하고 있다.
다만 챗지피티 등 범용으로 사용되는 대화형 언어 모델(LLM)을 전문 상담이나 임상 진단을 목적으로 쓸 수 없다. 상담 데이터와 방법론으로 상담에 적합하도록 특화된 학습을 하지 않아서다. 샘 올트먼은 “(민감한) 고민을 상담사, 변호사, 의사에게 이야기하면 법적으로 비밀이 보장되지만, 챗지피티와의 대화에는 이런 체계가 마련돼 있지 않다”고 스스로 우려를 나타내기도 했다. 상담 내용을 개인 정보로 별도로 보호하는 제도가 마련되지 않아, 데이터 수집 등 상업적 목적으로 활용될 가능성이 있고 기관 등 요청에 따라 유출의 가능성도 있다는 의미다.
상담사와 의사는 상담 중 내담자의 정보에 대한 비밀유지 의무가 있지만 상대적으로 AI는 보안을 구축하고 유출되었을 때의 피해에 대비해야 한다.
취약한 심리상태의 사람에겐 위험한 결과를 초래할 수 있다는 지적도 있다. 조철현 고려대학교 정신건강의학과 교수는 “환자들은 자기를 지킬 수 있는 기능에 어려움을 겪는 상태다”며 “이런 취약성이 일반적인 인공지능 서비스와 맞물렸을 때의 잠재적 위험성이 있을 수 있다”고 말했다.
또한, 상담으로만 해결되지 않는 약물치료를 병행해야 될 정도로 취약성을 가진 사람이 AI와 상담을 하게 된다면 AI에게 전적으로 의존하게 될 수도 있고, 전문가가 아닌 사용자가 자신의 상태를 섣불리 판단해서 위험한 상황이 발생할 수도 있을 것이다.
앞으로 AI는 점점 더 발전할 것이다. 아직 상용화되지 않을 뿐, 생각보다 훨씬 더 발전해있을지도 모른다.
심리건강 분야에는 과학적 근거에 기반하여 심리 상담이 가능하도록 특화된 AI를 활용하고 있다. 인지행동치료(CBT)를 적용하거나, 디지털 치료제의 개발 등으로 사용자의 정신건강 문제를 해결하기 위한 연구가 활발히 진행중이다. 이미 AI의 시대에 진입하였고 시대의 흐름에 따라, 심리학과 AI를 융합하여 내담자의 치유를 도울 수 있는 방법에 대한 새로운 시도를 할 수 있도록 앞으로의 흐름에 관심을 가지고 주목해야 할 것이다.