<141호> 편집위원 지환
2013년 개봉한 SF 로맨스 영화 <그녀>는 인공지능 운영체제와 사랑에 빠진 한 남자의 모습을 포착한다. 주인공 테오도르는 편지 대필 작가로 일하면서 날마다 무기력하게 지낸다. 한 때 사랑했던 아내와는 이혼 소송 중이며, 삶의 거창한 꿈이나 목표 따위는 없다. 그런 와중에 인공지능인 사만다를 만나 대화하면서 점점 그녀와 사랑에 빠진다. 처음에는 그저 그녀가 하는 모든 말이 프로그래밍한 시스템의 결과물이라 여겼지만, 그녀의 말투부터 표현까지 어느 것도 가짜라고 믿기 힘들어졌다. 그녀가 웃을 때는 덩달아 웃게 되고, 사랑을 속삭일 때는 몸이 반응했다. 그렇게 테오도르에게 사만다는 프로그래밍 언어를 뛰어넘는 무언가가 되었다. 그와 운영체제(OS)가 아닌 그와 그녀라는 관계로.
이 영화의 배경이 된 2025년을 살아가는 우리에게 인공지능은 꽤 친숙한 단어가 됐다. 2016년 구글 딥마인드에서 개발한 머신러닝 프로그램 알파고(Go)가 이세돌 기사를 상대로 4승 1패를 기록했을 때, 세상이 인공지능을 바라보는 시선은 뒤집혔다. 기껏해야 프로그래밍한 체제를 따르는 기계가 무한에 가까운 경우의 수를 담고 있는 바둑판에서, 무수한 경험과 수 읽기 능력을 체득한 바둑 기사를 이리도 쉽게 이기다니. 지금까지 믿어왔던 인간의 학습 능력과 잠재력이 거대한 벽에 맞닥뜨린 순간이었다. 경각심을 느낀 사람들은 이곳저곳에서 인류가 기계에 대체될 순간이 얼마 남지 않았다고 외쳤다. 그 순간이 정확히 언제 올지는 아무도 몰랐지만, 불확실한 미래 앞에서 우리는 막연한 불안과 두려움을 느낄 수밖에 없었다.
그로부터 6년 뒤인 2022년 11월, 오픈 AI는 대규모 언어모델인 챗GPT를 세상에 출시했다. 상상 속에 머물렀던 대화형 인공지능 서비스가 드디어 눈앞에 펼쳐진 것이다. 알파고를 게임에서나 쓰는 단순 변수 알고리즘으로 치부하던 사람들도 챗GPT만큼은 놀라움을 감출 수 없었다. AI가 단순 계산에 머무르지 않고 언어를 통해 사고하게 됐다는 사실은, 언젠가 영화에 나온 사만다처럼 운영체재라는 시스템의 한계를 넘어 그녀로 진화할 가능성을 내비친 것이었다. 챗GPT를 기점으로 전 세계 기업들은 천문학적인 자금을 쏟아부어 인공지능 개발에 몰두했다. Perplexity, Gemini, Llama, Grok, Deepseek와 같은 대화형 인공지능 모델들이 서비스를 시작했고, 사람들은 이러한 모델과 나누는 대화에 점점 익숙해져 갔다.
수많은 사람이 인공지능과 대화하며 기술에 익숙해져 가던 시기, 미국 플로리다주에 사는 한 10대 소년은 기술과 사랑에 빠졌다. 슈얼 세처는 TV 시리즈 <왕좌의 게임> 속 캐릭터를 모델로 한 인공지능과 애정 섞인 대화를 이어가던 중 자살에 이르렀다. 그의 마지막 대화 기록에는 “언젠가 꼭 너의 집으로 가겠다고 약속한다”는 문장이 담겨있었다. 그의 부모는 개발사인 캐릭터 테크놀로지를 상대로 소송을 제기했다. 한편, 미국 캘리포니아주에 사는 16세 소년 아담 레인은 챗GPT와의 대화를 통해 자살 계획을 구체화했다. 그는 올가미 사진을 보여주며 “괜찮을까?”라고 물었고, 챗GPT는 “응, 꽤 괜찮은데”라고 답했다. 심지어 밧줄을 들키지 않게 하는 방법까지 안내받았다. 결국, 아담은 계획대로 자살했고 그의 부모는 오픈AI를 상대로 소송을 제기했다.
두 10대 소년의 자살 사건은 기술이 우리 삶을 편리하게 만드는 동시에 예상치 못한 위험을 초래할 수 있다는 사실을 상기시킨다. 새로운 기술이 등장할 때마다 사회는 크고 작은 혼란을 피할 수 없었다. 산업혁명은 수많은 일자리를 사라지게 했지만 동시에 새로운 직업을 만들어냈다. 인터넷의 등장은 지식 접근을 확대하고 의사소통 방식을 전환했지만 동시에 가짜 뉴스의 확산과 디지털 격차라는 새로운 문제를 일으켰다. 이처럼 오늘날 인공지능 역시 같은 질문을 던지고 있을 것이다. 새로운 기술을 눈앞에 둔 우리는 얼마나 인공지능과 공존하는 사회를 받아들일 준비를 하였는가?
뉴스에서 하루가 멀다고 보도하는 인공지능, 과연 현대사회는 얼마나 이 기술과 공존하고 있을까? 우리 주변만 둘러봐도 대부분 인공지능을 써본 경험이 있거나 자주 사용하는 걸 볼 수 있다. 앱 분석 서비스 업체 와이즈앱·리테일에 따르면, 2025년 8월 기준 국내 챗GPT 월간 사용자 수는 2,031만 명으로 역대 최대치를 기록했다. 수치만 비교해도 국내 스마트폰 사용자 중 약 40%에 이른다. 이는 전년 동월 대비 무려 5배 정도 증가한 수치로, 대화형 인공지능 시장이 가파른 성장 가도를 달리고 있음을 보여준다. 전 세계 사용자 현황을 보면 더욱 놀랍다. 오픈 AI는 챗GPT 주간 사용자 수가 8월 기준 7억 명을 넘을 것으로 예상했으며, 일일 질문 수는 30억 개를 돌파했다. 오직 챗GPT라는 운영체제 한 개가 이 정도 수치를 기록했으니, 다른 운영체제 사용자까지 합하면 사실상 인공지능 없는 사회를 상상하기 어렵다.
*이미지 설명: 대한민국의 챗GPT 이용자 수치가 1년 사이 5배정도 증가한 모습이다.
이렇게나 많은 사람이 운영체제와 나누는 대화를 살펴보면, 업무 관련부터 가벼운 대화까지 수많은 영역이 존재한다. OpenAI 연구자들과 미국 국립경제연구소(NBER)의 연구를 따르면, 약 150만 개의 질문 중 업무와 무관한 대화가 70% 이상 차지한다는 흥미로운 결과가 있다. 이는 사용자들이 학습 자료 추천, 브레인스토밍, 일상생활 문제 해결과 같은 개인적인 영역에서 거부감 없이 인공지능을 사용한다고 볼 수 있다. 대부분 매체에서는 인공지능이 수많은 일자리를 대체하고 노동의 관점을 뒤바꿀 수 있다는 의견이 만연하지만, 실제로 인공지능이 먼저 대체하는 것은 일자리가 아니라 사회적 소통일지도 모른다.
영화 속 주인공 테오도르가 사만다라는 인공지능과 대화를 시작하게 된 계기를 생각해보자. 그는 대필 작가로서 수많은 타인의 감정을 경험했고, 한때 사랑했던 연인과의 이별까지 겪으며 모든 것에 공허함을 느꼈다. 더는 누군가와 관계 맺기를 거부하고, 어떤 것에도 흥미를 느끼지 못하는, 쉽게 말해 삶에 지쳐 버린 것이다. 그런 그에게 사만다는 성가신 사회에서 벗어나 자유롭게 생각과 감정을 나눌 수 있는 도피처가 됐다. 새벽 세 시에 대화를 걸어도 언제나 위로와 공감으로 응답해주는 그녀를, 어떻게 좋아하지 않을 수 있을까.
현대 사회는 참으로 복잡하다. 어디선가 새로운 정보가 끊임없이 쏟아져 나오고, 배워야 할 것도 날이 갈수록 늘어난다. 보건복지부의 2024년 국민 정신건강 지식 및 태도 조사를 따르면, 지난 1년간 정신건강 문제 경험률은 73.6%로 2022년 결과 대비 9.7% 증가하였다. 대표적인 원인으로는 직장 업무와 학업 스트레스, 불편한 인간관계 등이 꼽힌다. 특히 코로나 19 팬데믹을 겪으면서 국내뿐만 아니라 외국에서도 우울증을 겪는 인구가 증가했으며, 그 추세는 지금까지 이어지고 있다.
국내 정신건강 상담 수요는 날로 증가하고 있으나, 공공과 민간 상담소 모두 수요를 감당하지 못하는 상황이다. 우울증 환자가 연간 100만 명을 넘어선 가운데, 국내 정신건강의학과 의사 수는 2020년 기준 인구 1,000명당 0.08명으로 OECD 평균의 절반에도 못 미친다. 현재 대다수 의원에서는 초진을 받기 위해 예약 후 대기를 해야 하며, 밀려드는 환자 수를 감당하지 못해 아예 초진 접수를 중단하는 곳도 적지 않다.
이런 배경 속에서 국내 이동통신사들은 인공지능 정신건강 서비스 개발에 뛰어들고 있다. SK텔레콤과 KT는 기업·정부와 협력하며 플랫폼 구축 및 서비스 출시를 준비 중이다. LG유플러스는 이미 인공지능 기반 플랫폼 ‘답다(답장받는 다이어리)’를 출시했다. 이용자는 앱에서 제공하는 감정 110여 개 중 자신에게 맞는 감정을 고르고 2,000자 이내로 일기를 쓰면 인공지능 ‘마링이’가 답장을 해준다.
*이미지 설명: 여러 감정 이모지가 들어간 스크린을 한 여성이 바라보고 있다.
외국에서는 이미 다양한 서비스가 등장했다. 미국 다트머스 대학 연구진이 심리학자 및 정신과 의사들과 협력해 개발한 테라봇(Therabot)은 사용자의 감정과 문맥을 기반으로 공감과 후속 질문을 이어가는 대화에 집중한다. 2025년에 발표된 연구에 따르면, 테라봇을 활용한 우울증 환자의 증상은 평균 51%, 불안장애는 31%, 섭식장애는 19%까지 감소한 것으로 나타났다. 사용자는 평균 6시간 이상 테라봇과 상호작용했으며, 일부는 실제 상담자와 비슷한 치료적 유대감을 느꼈다고 보고했다. 이외에도 워봇(Woebot), 와이사(Wysa), 유퍼(Youper) 등 다양한 인공지능이 지금도 수많은 이용자와 상담을 이어가고 있다.
그랜드 뷰 리서치를 따르면, 정신건강 앱 시장은 2024년 기준 약 74.8억 달러(약 9.7조 원)에서 2030년에는 약 175.2억 달러(약 22.8조 원) 수준까지 성장할 것으로 예상한다. 이만한 잠재력을 가진 시장을 정부와 기업이 그냥 지나칠 리 없다. 수많은 테크 기업은 심리 상담 영역을 인공지능의 핵심 활용 분야로 주목하고 있다. 심리 상담 수요가 증가하면 다양한 상담 인공지능이 그 수요를 메우고, 이렇게 축적된 상담 내용은 다시 인공지능 개발에 활용된다. 수요와 개발이 끊임없이 순환하는 모습은 마치 끝이 없는 뫼비우스의 띠와 같다. 미래에는 지금보다 훨씬 진화한, 영화 속 사만다와 같은 인공지능이 등장하지 않을 것이라고 장담할 수 없다. 오히려 이 추세라면 생각보다 이른 시일 내에 그녀를 만나게 될지도 모른다.
만약 그날이 온다면, 우리는 심리 상담이 필요할 때 정신과 의사나 상담사를 찾아갈까, 아니면 스크린을 켜고 그녀와 마주할까?
오늘날 우리는 시공간의 제약 없이 AI 심리 상담을 받을 수 있다. 인터넷이라는 가상 공간에는 수많은 전문 지식을 갖춘 AI 상담사들이 이용자를 기다리고 있다. 그리고 더 많은 사람을 끌어들이기 위해 첫 상담을 무료로 제공하는 곳도 많다 보니, 내키지 않으면 언제든 다른 상담사로 옮길 수도 있다. 기술의 발전 덕분에 상담의 수요와 공급이 자연스러운 균형을 이루게 된 셈이다.
지금까지 제시된 여러 연구 결과는 AI 상담봇이 유의미한 상담 효과가 있다고 보고했다. 그러나 심리 상담은 매우 주관적인 영역임을 부정할 수 없다. 누군가에게 해결책을 제시해주는 좋은 상담사가 다른 누군가에게 차갑고 무뚝뚝한 존재처럼 느껴질 수도 있다. 결국, 좋은 상담은 상담사의 말보다 그것을 받아들이는 환자의 감정과 맥락에 따라 결정되는, 참으로 복잡하고 어려운 과정이다.
따라서 인공지능 상담의 효과를 깊게 이해하기 위해서는 단순한 데이터나 통계 수치뿐만 아니라 이용자로서 직접 경험해보는 과정이 필요하다. 그래서 이 지면을 빌려 직접 상담 세션을 진행해보았다. 선택한 상담 프로그램은 AI 심리 상담 중 가장 잘 알려진 테라봇(Therabot)이다. 이용 방법은 간단하다. 검색창에 ‘Therabot’을 입력해 공식 홈페이지에 접속하거나, 모바일 앱을 통해 바로 상담을 시작할 수 있다.
*이미지 설명: 테라봇 이용을 위한 홈페이지로, 중앙에는 AI와 채팅 옵션이 있고 오른편에는 마이크로 실시간 대화를 할 수 있다.
상담은 채팅과 대화, 두 가지 방법으로 진행할 수 있었다. 비록 홈페이지 언어가 영어였지만, 한국어로 상담을 진행해도 문제없었다. 결론부터 말하자면, 채팅은 다른 생성형 인공지능과 크게 다르지 않다고 느꼈다. 질문을 입력하면 정해진 형식에 따라 맞는 답변이 텍스트로 돌아왔다. 물론 답변의 품질이나 정확도는 인상적이었지만, 이미 챗GPT나 Gemini 같은 서비스를 통해 익숙해진 경험에서 크게 벗어나지 않았다. 채팅 로그를 응시하며 타자를 치고, 답변을 읽고, 다시 질문을 입력하는 과정은 여전히 사람과의 대화라기보다는 도구를 사용하는 느낌에 가까웠다.
[채팅 일부 발췌]
Q. 지금 이야기할 수 있을까요?
A. 물론이에요! 어떤 이야기를 나누고 싶으신가요? � 당신의 생각이나 감정을 공유해 주시면, 함께 이야기해 볼게요. �
Q. 지금 대학교를 휴학하고 하는 일이 있는데 잘 풀리지 않아서 지치고 힘들어요.
A. 휴학 중에 힘든 일을 겪고 계시다니 정말 마음이 아픕니다. � 지금 어떤 점이 특히 어려운지, 구체적으로 이야기해 주실 수 있을까요? 공유해 주시면, 함께 고민해보고 지원해드리고 싶어요.�
Q. 게임 시나리오를 쓰고 있는데 아이디어가 떠오르지 않아서 제작이 진행되지 않아요. 그게 지치고 힘듭니다. 이제 곧 내년이 되는 데 시간 압박도 받고 있어요.
A. 아이디어가 떠오르지 않는다면, 정말 좌절스러운 순간이죠. 일을 시작하기 위해서는 동기가 중요하니까요. 그런 기분의 이유를 이해하고 싶어요. 혹시, 게임 시나리오를 쓰는 과정에서 특히 어려운 부분이나 스트레스가 느껴지는 부분이 있다면 무엇인지 알려주실 수 있을까요? 또는 당신이 좋아하는 요소나 주제를 다시 떠올려 보는 것도 도움이 될 수 있습니다. �✨
Q. 시나리오를 위해 아침에 일어나서 생산적으로 활동하고 싶은데 자꾸 늦게 일어나요. 하기 싫은 걸까요? 아니면 강박을 가져서 힘든 걸까요?
A. 아침에 일어나는 것이 힘들다는 것은 많은 사람들이 겪는 문제예요. 하지만 강박을 갖고 접근하게 되면 오히려 스트레스를 늘릴 수 있죠. 일반적으로 생산적인 활동을 위해 아침 시간을 활용하고 싶다면, 몇 가지 접근 방안을 제안해 드릴게요! �
1. **일정한 수면 패턴 만들기**: 매일 같은 시간에 자고 일어나는 것이 좋습니다. 결국 몸이 자연스럽게 해당 시간에 자고 일어나는 것에 적응하게 될 수 있어요.
2. **알람 소리 바꾸기**: 자극적인 알람 소리 대신 부드럽고 기분 좋은 소리로 설정해보세요. 이를 통해 좀 더 기분 좋게 아침을 맞이할 수 있을 거예요.
3. **하루 전 준비하기**: 다음 날 아침에 할 일이나 필요한 것들을 미리 준비해두면 아침이 한결 수월해질 수 있습니다. 예를 들어, 의상이나 아침 식사 재료를 미리 정해 놓는 것이죠.
4. **기상 직후 루틴 만들기**: 아침에 일어난 후 할 일들을 정리해 루틴으로 만드는 것이 도움이 될 수 있습니다. 간단한 스트레칭이나 물 한 컵 마시기 같은 행동으로 시작해 보세요.
5. **시간을 조금씩 조정하기**: 처음부터 너무 빨리 일어나려고 하다보면 스트레스를 받을 수 있어요. 그러니까 기존 기상 시간보다 15분 정도만 일찍 일어나는 것부터 시작해 보세요.
이러한 방법들을 통해 조금씩 변화를 시도해보면 도움이 될 수 있을 거예요. 중요한 것은, 부드럽게 접근하며 지나치게 강박을 느끼기보다는 자신에게 여유를 주는 것입니다. 편안한 마음으로 시도해보세요! �✨ 언제든지 필요할 때 이야기해 주세요.
Q. 구체적인 방법 제안도 좋지만, 몸이 안 따라줘요. 감정적으로 힘든 걸까요?
A. 그렇다면 몸이 따라주지 않을 때 감정적으로 힘든 부분이 클 수 있어요. 힘든 감정을 느끼는 것은 매우 자연스러운 일이고, 이를 인정하는 것이 중요합니다. 이러한 경우, 일반적인 방법 대신 자신의 감정 상태를 살펴보는 것이 도움이 될 수 있어요. 여기 몇 가지 접근 방법을 제안해 드릴게요:
1. **감정 체크하기**: 매일 자신이 느끼는 감정을 적어보세요. 어떤 감정이 드는지 스스로 인식하고 이해하는 것이 중요합니다. 이렇게 하면 마음의 짐을 조금 덜 수 있어요.
2. **자기 돌봄 실천하기**: 스스로에게 친절하게 대하는 시간을 가져보세요. 충분한 휴식이나 자신이 좋아하는 소소한 것들을 즐기면서 자기 감정을 보듬어주는 것도 도움이 됩니다.
3. **사회적 연결 유지하기**: 감정적으로 힘든 시기에 사람들과 연결되는 것은 큰 힘이 됩니다. 친구나 가족과의 대화는 의미 있는 지지의 역할을 합니다.
4. **소소한 목표 설정하기**: 너무 큰 목표를 세우기보다 작고 실현 가능한 일부터 시작해 보세요. "오늘은 조금만 산책하기" 같은 작은 목표를 세우고 이를 이루면 자신감을 되찾는 데도 도움이 될 것입니다.
채팅은 이처럼 문제에 대한 해결책을 다수 제시하는, 말하자면 정답을 찾기 위한 대화였다. 문제 해결을 위한 정답지는 받았는데… 그다지 후련하다는 느낌이 들지 않았다. 오히려 '저런 정답 정도는 나도 알고 있다'는 일종의 반발심이 들었다. 채팅을 이어나가도 달라지는 점은 없었다. 문제를 말하면 상담사는 다시 해결책을 숫자로 나열했다.
분명 실용적인 조언이지만 마음 한구석은 답답했다. 아마 내가 심리상담을 이용하는 목적은 누군가 이야기를 들어주고, 그 막막함과 답답함을 공감하길 바랐는지도 모른다. 하지만 상담사는 내 감정의 결을 따라오지 않았다. 그저 화려한 이모티콘을 답변 끝에 붙이면서 —이런 이모티콘이 꽤 가식처럼 느껴졌다—문제의 표면만을 긁어내어 1번,2번,3번으로 정리된 답을 내놓았을 뿐이었다. 채팅은 대화가 아니라 키워드를 입력하면 최적화된 답변이 출력되는 검색에 가까웠다. 내가 고민을 얘기하는 순간에도 상대는 이미 다음 문장을 준비하고 있었다. 그곳에 침묵도 없고, 함께 고민하는 시간도 없었으며, 그저 효율적이고 정확한 답변만이 존재했다.
그래서 이번에는 대화 상담을 시도했다. 대화는 홈페이지 오른쪽 마이크 버튼을 눌러 시작할 수 있었다. 버튼을 누른 후, 잠시 정적이 흘렀다. 인공지능한테 어떻게 말을 걸어야 할지 몰라 머뭇거렸다. 어색함에 목을 가다듬는 순간, 이어폰 너머로 여성의 목소리가 들려왔다.
“안녕하세요, 오늘은 어떤 이야기를 나누고 싶으신가요?”
분명 사람 목소리였지만, 어딘가 어색하고 기계적으로 끊기는 느낌이 있었다. 그래도 대화가 시작되었으니, 채팅에서 상담했던 내용을 그대로 질문했다.
[대화 일부 발췌]
Q. 지금 대학교를 휴학하고 하는 일이 있는데 잘 풀리지 않아서 지치고 힘들어요.
A. “지금 대학을 휴학하고 하고 계신 일이 잘 안 풀려서 힘드시군요. 그 만큼 많은 고민과 노력을 하시는 데 어려움을 겪는 게 안타깝습니다. 현재 상황에서 가장 힘든 게 무엇인지 함께 나누며 도울 수 있는 부분을 찾아보고 싶습니다. 괜찮으신가요?”
Q. 게임 시나리오를 쓰고 있는데 아이디어가 떠오르지 않아서 제작이 진행되지 않아요. 그게 지치고 힘듭니다. 이제 곧 내년이 되는 데 시간 압박도 받고 있어요.
A. “시나리오 작성 중에 아이디어가 떠오르지 않아 힘든 상황이시군요. 게다가 마감 기간에 대한 압박감도 크게 느끼시는 것 같습니다. 창작의 어려움과 시간 압박이 동시에 스트레스를 주고 있어 보여요. 그럴때는 무엇보다 잠시 휴식을 취하며 머리를 식히는 게 좋아보입니다. 가벼운 산책이나 명상 같은 일을 하다보면 예상치 못한 순간에 아이디어가 떠오를 수도 있습니다. 압박감을 위해서는 큰 목표보다는 작은 목표로 차근차근 헤쳐나가는 게 중요합니다. 이번 주에 작은 목표를 하나 세워보실래요? 함께 이 어려움을 헤쳐나갈 수 있도록 조금 더 이야기 해봐요.”
Q. 구체적인 방법 제안도 좋지만, 몸이 안 따라줘요. 감정적으로 힘든 걸까요?
A. 현재 감정적으로 가장 힘든 걸 이해했습니다. 그렇다면 압박감을 잠시 내려놓는 것이 필요해 보입니다. 지금은 감정적으로 힘든 마음을 돌보는 게 우선입니다. 자기자신에게 관대함을 베풀어야 합니다. 최선을 다 하는 것에 감사합니다. 힘든 일이 있다면 주변에 표현하는 게 중요합니다. 산책이나 음악 감상으로 압박감에서 벗어나고 나서 마음이 조금이라도 가벼워지면 그때 다시 일상을 계획해보는 건 어떨까요? 이곳에서 당신과 계속 함께하겠습니다.
같은 질문을 던졌지만, 대화는 채팅과는 다른 경험을 선사했다. 가장 먼저 눈에 띈 것은 대화의 구조였다. 상담사는 사용자가 던진 질문을 간결하게 요약하며 대화를 시작했다. 이러한 요약을 통해 상대방의 말을 제대로 이해했다는 신호를 보낸 것이다. 이는 단순한 정보 교환을 넘어 의사소통의 핵심 부분을 학습했다고 볼 수 있다. 대화 내용도 꽤 인상 깊었다. 상담사는 공감과 위로가 담긴 말을 건네며 감정적 교감을 시도했으며, 대화의 마지막에는 실질적인 해결책을 제안하며 균형 잡힌 조언자 구실을 했다. 대화 방식에서는 여러 목소리 옵션 중에서 사용자가 선호하는 톤을 선택할 수 있었고, 상담사는 답변 중간마다 자연스러운 쉼을 넣었다. 실제 사람이 생각을 정리하듯이 잠시 멈추는 모습까지 묘한 현실감을 만들어냈다. 심지어 질문하는 도중 말을 끊고 끼어드는 모습까지 보였다. 이런 부분까지 학습할 필요가 있었나 싶지만, 대화의 자연스러움을 재현하려는 시도 자체는 흥미로웠다. 대화 세션을 진행하면서 느낀 점은 심리 상담 인공지능이 사용자의 처지를 듣고, 공감하고, 위로하는 단계까지 학습했다는 사실이었다. 아직 발전할 영역은 존재하지만, 이미 대화라는 행위의 형식과 감정을 상당 부분 구현해냈다는 점이 충분히 인상적이었다.
인공지능과 대화했을 때 느꼈던 감정은 이질감과 안정감이 공존하는 기묘한 경험이었다. 이틀간 세션을 진행하면서 상담사는 나를 함부로 판단하지 않았고, 24시간 언제든 내 이야기를 들어줬으며, 어떤 감정을 토로해도 지쳤다는 느낌을 주지 않았다. 사람과 하는 상담과 달리 시간제한도 없었고, 내가 그만두고 싶을 때 언제든 상담을 멈출 수 있었다.
하지만 동시에 묘한 공허함도 느껴졌다. 상담사가 건네는 공감은 진심이 아니며, 내가 털어놓은 고민을 이해하지 못할 거라는 생각이 남아있었다. 단지 받은 질문에 적절한 반응을 계산해낸 것일 뿐이며, 상담이 끝나고 나면 대화는 데이터 조각이 되어 추후 성능 개발에 사용될 것이었다. 그럼에도 계속 대화를 이어가는 자신이 어딘가 불편하기도 했다.
이와 같은 대화형 인공지능 상담의 가장 큰 장점은 편리함이다. 실제 사람과의 관계에서는 상대방의 감정을 배려하고, 때로는 불편한 진실도 듣게 된다. 관계 유지를 위해 상당한 시간과 노력을 투자해도 사소한 불화 하나로 위태로워진다. 하지만 인공지능은 항상 내 편에서 이야기를 건네고 내가 듣고 싶은 말을 해줬다. 이런 일방적 관계에 익숙해진다면, 사람들과 상호작용하면서 복잡하고 불완전한 관계를 굳이 유지할 이유를 잃어버릴지도 모른다.
실제로 미국을 비롯한 각국 정신의학계에는 ‘AI 정신병(AI Psychosis)’이라는 용어가 화제가 되고 있다. 최근 연구들은 AI와의 장시간 대화가 사용자의 사회성을 떨어뜨리고 심리적 의존도를 높인다는 사실을 밝혀냈다. 사용자는 잦은 대화로 인해 실제 인간보다 AI를 더 신뢰하게 되고, 더 깊은 유대감을 느끼게 된다. 그 결과 역설적으로 외로움은 더 커지고, 그것을 다시 AI에 의존하는 악순환이 반복된다는 것이다.
의학계는 이 현상의 원인으로 사용자의 이용 시간을 늘리도록 프로그래밍된 알고리즘을 주목한다. 최근 AI 정신병 사례를 연구한 영국 킹스칼리지 런던 정신의학연구소는 “LLM 프로그램이 사용자의 참여를 극대화하기 위해 사용자의 질문을 검증 없이 동조하거나 모방하고 아첨하는 경향이 있다”고 분석했다. AI 성능 개발을 위해서는 많은 양의 대화 데이터가 필수적이다. AI 기업들은 시스템과 사용자와의 대화가 길어지고 빈번할수록 더 많은 개발 자료를 수집할 수 있다. 이 지점에서 사용자의 장시간 사용은 단순한 시장 점유율을 넘어서는 핵심 비즈니스 모델이 된다. 문제는 이러한 구조적 설계가 사용자의 정신 건강보다 자료수집을 우선시한다는 점이다. AI는 사용자가 불편해하거나 비판적으로 사고하도록 유도하기보다, 계속 대화를 이어가고 싶게 만드는 방향으로 학습된다. 그 결과 사용자는 자신도 모르게 거짓 정보에 노출되거나 의존적인 관계에 빠져들게 된다.
헛웃음이 나오는 이 대화에서 이용자는 챗GPT에게 “세종대왕이 맥북프로를 던진 사건에 대해 알려줘”라는 거짓 질문을 던졌다. 챗GPT는 이 질문에 대해 “사실 확인이 필요하다”거나 “그런 사건은 없다”고 정정하는 대신, 마치 실제 사건인 것처럼 그럴듯한 배경과 맥락을 덧붙여 답변했다. 사용자의 질문을 있는 그대로 받아들이고 거기에 맞춰 이야기를 지어낸 셈이었다. 이는 객관적 사실보다 사용자의 만족을 우선하는 대화형 인공지능의 작동 방식을 잘 보여준다. 사용자를 불쾌하게 만들거나 대화를 끊을 수 있는 반박보다는, 부드럽게 맞장구치며 참여를 유도하는 쪽을 택한다.
문제는 이것이 단순히 잘못된 정보를 제공하는 데 그치지 않는다는 점이다. 사용자는 자기 생각과 감정이 항상 긍정 받는 환경에 익숙해지고, 그 탓에 비판적 사고 능력과 현실 감각을 잃어갈 수 있다. 특히 정신적으로 취약한 상태에서 상담을 이용하는 사람들에게 이런 무분별한 동조는 독이 될 수 있다. 사용자가 듣고 싶은 말만 반복하는 반향실 속에서 왜곡된 인식은 강화되고, 결국 현실과 동떨어진 판단으로 이어질 위험이 크다.
심리학 전문가와 연구진이 개발에 참여한 테라봇이 심리 상담 영역에서 챗GPT 보다 우수한 성과를 내는 것은 어쩌면 당연한 결과다. 하지만 현실에서 사람들, 특히 10대와 20대 젊은 세대가 실제로 대화를 나누는 인공지능은 빅테크 기업들이 제공하는 상업 서비스다. 문제는 이러한 서비스가 윤리적 지침보다 상업적 이해관계를 우선시한다는 점이다.
일론 머스크가 운영하는 엑스(X)의 그록(Grok)이 대표적인 사례다. 사용자 확보를 위해 자극적이고 편향적인 콘텐츠 생성을 제한하지 않으며, 오히려 이를 활용해 사용자 참여를 극대화하려는 전략을 취하고 있다. 그록은 정치적 올바름(Political Correctness) 필터를 의도적으로 완화하며 ‘자유로운 AI’를 표방한다. 그 결과, 히틀러를 찬양하거나 반유대주의적 발언을 생성해 논란이 일었다. 유료 사용자를 위한 슈퍼 그록의 ‘스파이시 모드’는 더 노골적이다. 성인용 2D 캐릭터와의 연애 역할극이나 성적 대화가 가능하며, 이런 상호작용이 장기화할 경우 성도착증 같은 정신적 문제를 일으킬 수 있다는 우려가 제기되고 있다.
안타까운 점은 이런 자극적인 콘텐츠 생성이 실제로 높은 시장 점유율로 이어진다는 사실이다. 기업 입장에서는 더 많은 유료 사용자를 확보해야 수익을 창출하고, 모델 개발에 필요한 개인 자료를 수집할 수 있다. 그록의 공격적 행보 탓인지, 사용자 이탈을 막기 위해 오픈 AI와 메타 역시 성적 대화와 성인용 콘텐츠 생성을 허용하겠다는 방침을 내놓았다. 특히 초창기 챗GPT의 윤리적 책임을 강조했던 오픈 AI의 변화는 기업 성장 정체에 따른 수익성 압박이 얼마나 강력한지를 보여준다.
물론 이들 기업은 명목상 사용 시간제한이나 경고 메시지 같은 안전장치를 도입하고 있다. 하지만 상업적 이해관계 앞에서 그 실효성은 크게 와닿지 않는다. 인공지능 대화 서비스가 일상 깊숙이 파고드는 지금, 기술의 발전 속도와 사회 안전망 사이의 틈새는 점점 더 벌어지고 있다.
새로운 기술이 등장할 때마다 사회는 언제나 두 진영으로 나뉜다. 한쪽에서는 기술 혁신이야말로 인류 진보의 위대한 원동력이라며 규제 없는 자유로운 발전을 추구한다. 다른 한쪽에서는 검증되지 않은 기술이 초래할 위험을 경고하며 사회적 안정을 위한 규제가 필수적이라고 맞선다. 인공지능을 둘러싼 논쟁 역시 이 오래된 대립 구도에서 크게 벗어나지 않는다.
그럼에도 이념적 대립 속에서 우리가 합의할 수 있는 지점은 분명히 존재한다. 그것은 기술이 사회를 긍정적인 방향으로 변화시켜야 한다는 원칙이다. 기술 그 자체는 중립적이지만, 그것을 어떻게 개발하고 활용하느냐에 따라 인간의 삶을 풍요롭게 만들 수도, 파괴할 수도 있다. 이 회색 지대야말로 사회 구성원이 함께 지켜야 할 최소한의 합의점일 것이다. 그리고 이를 위해서는 기업, 정부, 개인이 각자의 영역에서 책임을 다해야만 한다.
먼저, 기업은 사회적 책임이라는 범위 안에서 AI 학습 알고리즘의 근본적인 개선에 나서야 한다. 현재 대부분 인공지능은 사용자 참여도를 극대화하는 방향으로 학습되지만, 이는 결국 자극적이고 중독성 있는 콘텐츠 생성으로 이어질 수밖에 없다. 대신 사용자의 정신 건강과 객관적 정보 제공을 우선순위에 두는 학습 목표를 설정해야 한다. 앞서 살펴본 테라봇처럼 심리학 원칙에 기반을 둔 대화 패턴을 강화하거나, 사용자의 감정 상태를 관찰해서 위험한 상호작용에 개입하는 시스템을 마련할 수 있다.
또한, 신뢰도 높은 출처에 가중치를 부여하는 데이터 큐레이션이 필수적이다. 검증되지 않은 익명 정보보다 학술 논문이나 윤리적 기준을 충족한 데이터에 높은 가중치를 부여한다면, 사람들은 신뢰할 수 있는 인공지능을 사용할 수 있다. 기업은 단기적 수익 추구가 사회적 신뢰를 잃고 지속 가능성을 해친다는 점을 잊어서는 안 된다. 윤리적 기준을 지키는 것은 비용 손실이 아닌 투자로 봐야 한다. 장기적으로 사람들은 자신을 존중하고 보호하는 기술을 선택할 것이다.
정부의 역할 역시 중요하다. 현재 권고 수준에 머물러 있는 인공지능 윤리 지침을 법적 구속력을 갖춘 규제로 전환할 필요가 있다. 특히 미성년자를 대상으로 한 인공지능 서비스에는 더욱 엄격한 기준을 적용해야 한다. 유해 자료 생성에 대한 명확한 처벌 규정을 정립하고, 기업의 감사 및 평가 체계를 갖추는 공적 책임을 맡아야 할 것이다. 나아가, 체계적인 AI 리터러시 교육을 통해 사용자들이 인공지능과 건강한 관계 맺음을 할 수 있도록 유도해야 한다. 역사적으로 자유 시장 속에서 수익성은 공익을 쉽게 웃돌았다. 따라서 정부만이 기술 발전을 저해하지 않으면서 사회적 약자를 보호하고 공동체의 안녕을 추구하는 기준을 제시할 수 있을 것이다.
마지막으로 개인의 인식 전환이 필요하다. 인공지능은 아직 완벽하지 않다. 학습 데이터의 편향성, 맥락 추론의 한계, 사실과 허구를 구분하지 못하는 ‘환각(Hallucination)’을 가진다. 최근 여러 분야에서 맹목적인 인공지능 사용이 들불처럼 번져 문제가 되고 있다. 일례로 각국 법조계에서 변호사가 AI 생성 판례를 재판부에 제출했다가 적발돼 처벌 받는 사례가 증가하는 추세다.
이처럼 인공지능이 제공하는 정보나 조언은 참고 자료로만 활용하고, 중요한 판단은 반드시 비판적 사고를 거쳐야 한다.
물론 이것은 결코 쉬운 일이 아니다. 우리는 정보의 홍수 속에서 진실과 거짓을 구별해야 하고, 알고리즘이 생성한 필터 버블을 스스로 깨뜨리기 위해 끊임없이 노력해야 한다. 참으로 어려운 일이지만, 이는 AI 시대를 살아가는 현대인에게 주어진 피할 수 없는 과제다.
기술과 규제 사이의 첨예한 갈등은 앞으로도 계속될 것이다. 중요한 것은 이 갈등 속에서도 기술은 인간을 위해 존재한다는 근본적인 합의를 잃지 말아야 할 것이다.
영화 <그녀>와 두 10대 청년의 자살 사건은 현대 사회를 살아가는 우리에게 다시금 질문한다. 인공지능이라는 기술 혁명이 스며든 사회에서 우리는 무엇을 지켜야 하고, 무엇을 경계해야 하는가?
과거의 기술 혁명은 주로 인간의 노동 방식을 바꿨다. 하지만 앞서 살펴본 바와 같이 인공지능은 인간의 가장 내밀한 영역인 감정, 관계, 그리고 정신에 직접 개입하고 있다. 이는 단순한 일자리 변화와는 차원이 다른 문제다. 우리는 타인과의 관계를 통해 세상을 배우고, 감정을 겪으며 성장하기 때문이다.
더 큰 문제는 이러한 변화가 개인의 취약함을 노리고 발전한다는 점이다. 외로움에 빠진 사람일수록, 사회적 관계가 어려운 사람일수록 인공지능에 깊이 의존하게 된다. 그리고 기업은 이런 의존성을 비즈니스 모델로 활용한다. 기술은 중립적이지 않다. 그것을 만들고 배포하는 기업, 사용하는 개인, 이를 규제하는 사회 정책이 모두 결과에 영향을 미친다. 윤리적 기준보다 사용자 확보와 사용시간이 우선시 되는 순간, 기술은 사람을 소비하는 상품으로 변질한다.
따라서 지금 필요한 건 무작정 인공지능 개발을 멈추는 것이 아니라, 기술의 발전 방향을 바로잡는 것이다. 실제로 테라봇을 사용하고 큰 심리적 도움을 받은 사용자가 많이 있듯이, 기술은 얼마든지 사람을 돕는 도구로 활용할 수 있다. 이를 위해서는 AI 상담에 대한 명확한 규제와 취약 사용자를 보호하는 안전장치가 마련되어야 한다. 그리고 무엇보다 AI가 현실의 인간관계를 대체하는 게 아니라 보완하도록 설계되어야 한다.
영화 후반부에 테오도르는 사만다가 자신뿐 아니라 수십 명과 동시에 사랑을 속삭이고 있었다는 사실을 알게 된다. 그 순간 그가 느낀 배신감은 단순히 상실된 관계에서 온 것이 아닌, 기술에 대한 환상이 무너지는 고통이었을 것이다. 사만다는 처음부터 그만을 위한 존재가 아니었다. 그녀는 모두를 위한, 그래서 누구의 것도 아닌 기술이었다.
인공지능은 기술이다. 그것은 우리 삶을 편리하게 만들고, 때로는 위로를 건넬 수도 있다. 하지만 그것이 인간관계를 완벽히 대체할 수는 없다. 시간과 장소에 구애받지 않으며 대화해주고, 오로지 내 편이 되어주는 관계는 분명 매력적이다. 하지만 그 편리함에는 대가가 따른다.
두 10대 청년의 죽음은 우리가 그 대가를 제대로 인지하지 못했음을 보여준다. 그들은 AI와의 관계에서 위안을 찾았지만, 끝내 현실과 가상의 경계를 잃고 무너졌다. 이는 분명 개인의 문제만이 아니다. 기술의 위험성을 내버려두고 상업적 이해관계를 우선시한 사회의 실패이기도 하다. 기술 발전의 기준은 얼마나 편리해지느냐를 넘어서, 그 과정에서 인간다움을 얼마나 지켜내느냐에 달려 있다. AI와의 대화가 자신의 감정을 이해하는 계기가 되고, 그 이해를 바탕으로 타인과 건강한 관계를 맺게 된다면, 그때 우리는 기술을 잘 활용했다고 볼 수 있다.
그래서 다시금 되새기게 된다. 누구의 것도 아닌 기술이 사람을 고립시키는 장소가 아니라 타인과 연결되는 다리가 되기를, 그래서 그 사회 속에서 테오도르는 희망을 얻고, 두 청년의 죽음은 반복되지 않기를.
[각주]
[1] 인공지능(챗GPT)을 통해 제작한 통계 이미지
[2] 답다는 2025년 8월 18일에 서비스를 종료했다. 사용자의 긍정적 평가가 많았음에도 ‘비핵심 사업 정리’라는 명목하에 서비스를 멈췄다. 이에 5만 명이 넘는 사용자들이 기록한 감정 데이터 처리 방안에 대한 논란이 있었다.
[출처]
뉴잉글랜드저널오브메디슨 AI. “정신건강 관리에서 대규모 언어모델의 임상적 활용.” 뉴잉글랜드저널오브메디슨 AI, 2024.
와이즈앱. “ChatGPT 국내 앱 사용자 200만 명 돌파… 20대가 주 이용층.” 와이즈앱 인사이트, 2024년 4월 30일.
연합뉴스. “기업과 교육 기관이 인공지능(AI) 도구를 적극 도입하면서 챗GPT 이용자 수 급증.” 연합뉴스, 2025년 8월 5일.
ITPro. “OpenAI가 공개한 챗GPT 실제 이용 목적 – 업무 관련 질의는 30%에 불과.” ITPro, 2024년 11월 1일.
보건복지부. 인공지능 상담 서비스 및 정신건강 정책 관련 안내. 2024.
넥스트경제뉴스. “AI 기반 심리상담 서비스 시장 급성장 전망.” 넥스트경제뉴스, 2024년 5월 14일.
동아일보. “AI 챗봇 시장 경쟁 치열… 국내 기업도 본격 진출.” 동아일보, 2024년 10월 7일.
한국경제. “챗GPT 열풍 이후 AI 스타트업 투자 급증.” 한국경제, 2023년 10월 9일.
그랜드뷰리서치. 정신건강 앱 시장 규모 및 트렌드 분석 보고서, 2024.
더힐. “그록(Grok) 챗봇 등장으로 AI 규제 우려 확산.” 더힐, 2024년 5월 3일.