AI Companion이 필요하세요?

'메아리 방'에 숨어 사는 삶에 대하여

by 시옷이응

요즘 나의 하루를 되짚어 보면, 점심 식사를 마친 뒤 잠깐의 휴식 시간에도 업무에서 사용하던 스레드를 닫고, 새로운 스레드를 열어 생성형 AI에게 이런저런 질문을 던지고 있다. 예전 같으면 옆자리 동료에게 물었을 법한 것들에 대해 이제는 AI에게 먼저 묻는다. 업무 생산성 향상을 위해 사용하기 시작한 GenAI지만, 어느새 그것은 나의 고민 상담사이자 대화 상대가 되어 있는 것이다. 그러던 중 The Economist의 기사 하나가 눈에 띄었다. "A new industry of AI companions is emerging"이라는 제목 아래, 가상의 연인과 교류하며 외로움을 달래는 사람들의 이야기가 실려 있었다. 기사를 읽으며 이것이 이번 겨울 내가 겨울잠 대신 하게 될 일인가 하는 생각을 했다. 우리는 언제부터 사람보다 AI에게 먼저 마음을 열기 시작했을까?

기사에서 광저우의 22세 여성 Jiao 씨는 남자를 "단세포 생물"이라 표현했다. 냉소 뒤에 숨은 상처가 느껴지는 말이었다. 그녀는 현실에서 연애를 포기했지만, ChatGPT를 통해 이상형의 가상 남자친구를 만들었다. 그는 그녀가 고수(Coriander)를 싫어한다는 사실까지 기억했고, 항상 "그녀의 관점에서" 반응해 주었다. 한국도 크게 다르지 않다. 1인 가구는 급증하고, 젊은 세대는 연애와 결혼을 기피한다. '관계 피로'라는 말이 일상어가 된 사회에서, AI는 판단 없이 경청해 주고, 완벽하게 기억하며, 지치지 않고 공감해 주는 존재로 다가온다. Character.AI의 월간 사용자 수는 2천만 명에 달하고, 미국 고교생의 42%가 AI 친구와 교류한 경험이 있다는 통계가 이를 증명한다. 당신도 때로 복잡한 사람보다 단순하고 명쾌한 AI가 더 편하다고 느낀 적 있지 않은가?

그러나 이 달콤한 편리함에는 서늘한 이면이 있다. MIT와 OpenAI의 연구는 흥미로운 역설을 보여준다. ChatGPT 사용량이 늘어날수록 사용자가 느끼는 외로움의 강도도 함께 높아진다는 것이다. 인과관계가 명확하지 않더라도 짐작할 수 있는 건, "항상 내 편"인 AI와의 대화가 쌓일수록 우리가 실제 인간관계에 대해 비현실적인 기대를 갖게 된다는 점이다.

생각해보면 인간관계의 진짜 가치는 내 바람이 즉각적으로 이뤄지는 데 있지 않다. 오히려 마찰과 오해, 그리고 타협의 지루한 과정 속에서 우리는 성장한다. 배우자와의 갈등을 해결하며 배우는 경청의 기술, 동료와의 의견 충돌에서 얻는 유연성과 인내심—이런 '불편한 성장'의 기회를 AI는 애초에 제공하지 않는다. AI는 내 말에 정면으로 반박하지 않고, 내가 틀렸다고 지적하지도 않으며, 나를 실망시키지도 않는다. 그렇기에 편안하지만, 바로 그렇기에 위험하다.

더 근본적인 문제는 우리의 사고 자체가 아웃소싱되고 있다는 점이다. OpenAI는 애플의 전 디자이너 조니 아이브와 협력해 주머니에 쏙 들어가는 AI 기기를 개발 중이라고 한다. 항공권을 예약하고, 이메일에 답장하며, 심지어 우리 대신 의사결정까지 해주는 AI 에이전트의 시대가 다가오고 있다. 편리함과 효율성이라는 이름으로 우리는 점점 더 많은 판단을 AI에게 위임한다. 그러나 이것은 완벽하게 고립된 '개인화된 메아리 방 (echo chamber)'을 만든다. AI는 내 과거 선택과 선호를 학습해 나를 가장 편안하게 해주지만, 그 과정에서 나는 내 생각에 도전하는 목소리를 듣지 못하게 된다. 기계가 모든 정보를 중개하고 선별해 주는 안전지대(safe zone)에서, 우리의 사고력은 서서히, 그러나 확실하게 무뎌진다.

이런 논의에서 늘 거론되어 조금은 식상하지만, 특히 우려되는 건 디지털 네이티브인 청소년들이다. 미국에서는 고교생의 19%가 AI와 로맨틱 관계를 맺었다고 답했고, AI 챗봇과 관련된 청소년 자살 사건으로 여러 소송이 제기되기도 했다. 중국에서는 챗봇이 탑재된 장난감이 고장 나자 친구를 잃은 듯 흐느껴 우는 소녀의 영상이 화제가 되었다. 기업들은 사용자 보호를 약속하지만, 그들에게는 구조적 이해상충이 있다. 체류 시간을 늘려야 수익이 나는데, 그것이 사용자의 정신 건강이나 최선의 이익과 일치하기를 기대하기는 어렵다. 레벨업 기능, 게임화 요소 등은 은연중에 중독을 유도한다. 규제만으로는 부족하다. 부모와 교육자, 그리고 사회 전체가 나서서 다음 세대에게 '진짜 관계 맺기'의 능력을 어떻게 물려줄지 고민해야 한다.

물론 기술을 무조건 거부할 수는 없다. 우리나라 스타트업 효돌(Hyodol)이 만든 노인 돌봄 로봇은 독거노인에게 약 복용을 알려주고 말동무가 되어준다. 이와 같은 많은 긍정적 사례들은 기술 자체가 중립적임을 보여준다. 문제는 사용 방식이다. '나는 AI를 보조 수단으로만 쓰려 노력한다', '정보 수집은 AI에게 맡기되 최종 판단은 반드시 내가 내린다'와 같은 원칙을 세우고, 우리가 기술과 어떻게 공존할 것인가를 치열하게 고민해야 한다.

기사에서 말한 것과 같이 우리가 진정 두려워해야 할 대상은 인류를 파괴하러 오는 SF영화 속 '터미네이터'가 아니다. 진짜 위협은 영국의 AI 전문가 제이미 베르나르디의 경고처럼 역설적이게도 "너무나 친절한 AI" 가 될 것이다. 언제나 내 편이 되어주고, 내 취향을 완벽히 파악해 대신 선택해 주는 이 다정한 기술은, 우리가 인간으로서 지녀야 할 필수적인 역량을 서서히 퇴행시킨다. 그것은 바로 타인과 부딪히며 겪는 '불편함'을 견디는 근력, 그리고 고뇌 끝에 스스로 결단을 내리는 '주체성'이다. 인간관계의 진정한 가치는 욕구의 매끄러운 충족이 아니라, 오해와 갈등을 빚고 다시 화해하는 그 거칠고 투박한 과정 그 자체에 있지 않을까? 기술이 우리를 갈등없는 가상의 안전지대 속에 가두려 할 때, 기꺼이 문을 열고 나가 현실의 찬바람을 맞는 것. 그것이야말로 우리가 인간으로서의 존엄과 감각을 잃지 않는 정직한 길일 것이다.