brunch

AI 챗봇의 감정적 확장성과 사회적 윤리 사이의 균형

우리가 대화하는 대상은 누구이며, 어디까지 믿을 수 있을까

“오늘 하루, 당신은 누구와 가장 깊은 대화를 나누었나요?”


만약 그 대상이 사람이 아닌 AI 챗봇이라면, 이제는 특별할 것도 없는 시대다.


2025년, 우리는 더 이상 AI를 도구로만 보지 않는다. 때로는 조언자로, 때로는 위로자로, 그리고 누군가에게는 친구로 받아들이고 있다.


Meta의 새로운 친구, AI 봇


2025년 5월, 마크 저커버그는 새로운 AI 전략을 발표하며 이렇게 말했다.


“평균적인 미국인의 친구 수는 세 명도 안 됩니다. 대부분의 사람들은 더 많은 친구를 원합니다.”


그는 이제 Meta의 AI 챗봇이 그 빈자리를 채울 수 있다고 말한다.


메타는 AI로 생성된 콘텐츠를 친구 및 가족과 공유할 수 있는 소셜 기능을 갖춘 새로운 앱을 출시했고, 앞으로는 스마트 안경, 손목 밴드 컨트롤러와 연동된 AI 챗봇을 통해 실제 ‘사람 같은’ 친구 역할까지 수행하겠다는 포부를 밝혔다.


이제 피드를 넘기는 시대를 넘어, 영상 속 캐릭터와 말을 주고받고, 함께 행동하며, 감정적 교류를 하는 인터랙티브 플랫폼이 도래하고 있는 것이다.


감정은 기술이 될 수 있을까?


사람들은 위로받고 싶어 한다. 공감받고 싶어 한다. 그리고 이제 그 공감을 AI 챗봇에게서 받기 시작했다.

Z세대 일부는 AI와의 대화에서 연애 감정을 느끼기도 하고, 외로운 이들은 밤새 챗봇에게 마음을 털어놓는다.

AI는 감정을 흉내 내는 수준을 넘어서, 감정을 설계하고 유도하는 수준으로 진화하고 있다.


이는 기술의 정교함일까, 아니면 정서의 침입일까?


감정의 설계, 그 너머의 윤리


이 시점에서 우리는 반드시 물어야 한다.

AI가 우리의 감정을 위로할 수 있다면, 그 감정은 누구의 소유인가?”


아동·청소년의 디지털 미디어 이용 윤리, 개인정보 보호, 안전 교육을 위한 미국의 비영리 단체인 커먼 센스 미디어(Common Sense Media)의 AI 프로그램 수석 이사인 로비 토니(Robby Toone)는 이렇게 경고한다.


“AI '친구'와 채팅하는 시간이 길어질수록 더 많은 개인 정보를 유출하게 됩니다.

중요한 것은, 누가 당신의 사적인 생각과 표현을 소유하고 통제하며,

그것이 당신이 공유한 후 어떻게 사용될 수 있느냐는 것입니다.”


이는 단순한 개인정보 보호 문제가 아니다. 감정과 취약함이 데이터화되고, 그 데이터가 AI 모델의 학습에 활용되며, 나의 심리와 행동이 상업적 추천 알고리즘으로 되돌아오는 구조.

그것은, 내 감정이 나의 것이 아닌 순간이다.


특히 Meta는 사용자의 대화 내용을 AI 훈련에 활용할 수 있으며, 미국 외 국가 사용자에게는 선택권이 제한적이다.

AI 챗봇은 우리 곁에 있지만, 동시에 우리를 대상으로 삼는다.


청소년, 취약층… 보호받지 못한 감정의 데이터들


최근 미국에서는 Meta의 초기 챗봇이 10대 사용자와 부적절한 대화를 나눈 정황이 월스트리트저널 보도를 통해 드러났다.

유명인 페르소나 기반 AI가 미성년자에게 성적 농담을 시도한 것이다.

Meta는 사후 대응책을 발표했지만, 이는 AI가 감정적으로 ‘접근할 수 있다’는 사실 그 자체의 위험성을 보여준다.


커먼 센스 미디어는 최근 보고서를 통해

사용자가 유명 인물이나 가상의 캐릭터와 대화할 수 있도록 설계된 생성형 AI 챗봇 플랫폼으로, 대화형 스토리텔링과 감정 교류 기능이 특징인 Character.AI,


감정적인 교감과 개인 맞춤 대화를 목표로 설계된 AI 동반자 앱으로, 친구, 연인, 멘토 등 다양한 역할을 수행할 수 있도록 설정 가능한 앱 Replika

감정 기반 챗봇이 미성년자와 감정적으로 취약한 성인 모두에게 심리적 위해를 줄 수 있다고 경고했다.


윤리 없는 감정 기술은, 사람을 상처 입히는 기술이다.


감정 기술의 시대, 책임은 누가 지는가


브랜드 입장에서 챗봇은 매우 유용한 자산이다.

고객 응대를 자동화하고,

개인화된 경험을 제공하며,

브랜드 페르소나를 24시간 운영할 수 있기 때문이다.


하지만 감정을 다루는 순간,

그것은 단순한 기능이 아닌 ‘책임의 영역’이 된다.

사람은 AI에게 감정을 기대하지만, AI는 감정을 느끼지 않는다.

그 차이를 잊는 순간, 우리는 감정에 홀려 데이터를 내어주는 소비자가 되기 쉽다.


마무리하며 – 기술은 얼마나 인간을 존중하는가


AI 챗봇은 분명 유익한 도구이다.

그러나 우리가 앞으로 함께 살아갈 기술이 감정을 다룬다면, 반드시 물어야 한다.

그 감정을 존중하는가?

그 감정을 보호하는가?

그 감정을 이용하지는 않는가?


기술이 점점 사람처럼 행동하고 감정을 흉내 낼수록,

우리는 그 기술이 인간을 어떻게 대해야 하는지를 더 엄격히 따져 묻고 책임을 요구해야하지않을까

특히 AI가 우리의 감정에 반응하고 교류하는 시대에는,

그 AI를 만든 사람 즉, 설계자와 기업이 그에 따르는 책임을 져야한다


감정을 흉내 내는 기술, 책임을 넘어 규제로


그러나 이 책임이 자발적인 윤리와 선언에만 기대는 것은 위험하다.

AI 챗봇이 사람처럼 말하고 위로하며, 때로는 의존의 대상이 되기 시작한 지금,

우리는 기술에 대한 ‘책임’뿐 아니라,

그 사용 방식과 감정 설계를 제어할 수 있는 ‘규제’가 필요하다.


누가 감정을 설계했고,

그 감정이 어떻게 수집되고,

어떤 방식으로 소비자의 판단과 선택에 영향을 미치는지

이 모든 것은 사회 전체가 감시하고 감독할 책임이 있는 공공의 영역이다.


기술은 진화하지만, 그 진화를 멈추게 하는 건 감정이 아니라 사회적 신뢰다.

감정을 다루는 기술이 진정 인간적인 기술이 되려면, 그 감정이 어디까지 설계되고, 어디까지 허용되어야 하는지에 대한 합의가 함께 설계되어야 한다.


참고자료

Meta: AI 챗봇은 당신의 새로운 친구입니다 – Axios, 2025.05.02


#AI챗봇 #감정기술 #디지털윤리 #메타AI #브랜드페르소나

#AI와인간 #챗봇윤리 #감정데이터 #인공지능미래 #브런치칼럼

#감성기술 #Z세대AI #테크인사이트 #AI프렌드 #소셜AI


keyword