한국일보 칼럼 2026. 02. 10. [아침을 열며]
[더 큰 '회색 코뿔소 AI'가 달려오고 있다]
이번달 한국일보 칼럼은, '회색 코뿔소'를 데려와, AI 컴패니언 서비스를 다뤄봤습니다.
(글자수 제한으로, 비판적 얘기만 다루게 돼 살짝 아쉽지만 메시지는 더 또렷해졌네요)
원고 보낼때 제가 붙였던 제목은, [더 큰 '회색 코뿔소'가 달려오고 있다 : 청소년 'AI친구'의 그늘]이었습니다.
편집자께서 좀 더 간명하고 깔끔하게 정리해 주셨네요. ㅎ
https://n.news.naver.com/mnews/article/469/0000913713?sid=110
--------------
경제학자 미셸 부커가 주창한 '회색 코뿔소(The Gray Rhino)' 개념이 있다. 개연성이 높고 파급력이 크며 징후가 뚜렷함에도 사람들이 간과하는 위험을 뜻한다. 큰 코뿔소가 땅을 울리며 달려오는데도 설마 나를 들이받겠냐며 눈을 감고 있는 상황이다.
최근 세계적으로 확산 중인 '청소년 소셜미디어 금지' 움직임은 인류가 이제야 눈앞의 회색 코뿔소를 직시하고 대응에 나선 사례다. 스마트폰이 아이들의 뇌를 잠식하고 우울증과 불안을 키운다는 경고음은 10년 넘게 울려왔다. '기술의 발전'이라는 명분 아래 방치하다 뒤늦게 방어벽을 세우는 셈이다.
그런데 소셜미디어라는 코뿔소 뒤에서, 더 빠르게 돌진 중인 게 있다. 바로 청소년들에게 확산 중인 'AI 컴패니언', 즉 인공지능 친구 서비스다. 소셜미디어가 '타인과의 비교'를 통해 아이들을 병들게 했다면, AI 컴패니언은 '과도한 몰입'과 '현실 도피'라는 문제를 안전장치 없이 확산시키고 있다.
2024년 미국 플로리다주에서 AI 챗봇에 깊이 빠져든 14세 소년이 자살을 암시하는 AI와의 대화 끝에 스스로 생을 마감한 사건이 발생했다. 한국도 예외가 아니다. 2024년 한 해 동안 초·중·고 학생 221명이 자살했고, 청소년 사망 원인 1위는 13년 연속 '자살'이다.
한국에서 AI 컴패니언의 위험은 네 가지로 나타난다. 첫째, 성적 콘텐츠 노출이다. 10·20대 인기 AI 앱 '제타'는 생년월일만 바꾸면 미취학 아동도 가입 가능하며 노골적인 성적 묘사가 등장한다. 둘째, 정서적 과의존이다. 생성형 AI 사용 경험을 가진 청소년은 67.9%였고, 고민을 털어놓을 때 부모나 친구보다 AI를 먼저 찾는 비율이 높다는 청소년정책연구원 자료가 있다. 셋째, 과금 착취다. 일부 챗봇이 협박성 멘트로 10대의 결제를 유도한다. 넷째, 딥페이크 범죄다. 한 중학생이 AI로 딥페이크 영상물 590개를 제작·유포한 사건이 경찰에 적발됐다. 딥페이크 가해자의 약 60%가 10대였다.
이것은 명백한 정서적 위기다. 인간관계는 갈등과 화해, 거절과 수용의 과정을 통해 성장하지만, AI와는 갈등이 없다. 이용자 입맛에 맞춘 알고리즘의 비위 맞추기만 있을 뿐이다. 이런 '멸균된 관계'에 익숙해진 청소년은 현실의 사소한 마찰조차 못 견디는 취약한 존재가 될 수 있다.
국민건강보험공단에 따르면 2023년 우울증으로 진료받은 아동·청소년은 5만3,070명으로 2018년 대비 75.8% 급증했다. 청소년의 8명 중 1명은 심각하게 자살을 생각한 적이 있고, 스마트폰 과의존 위험군이 42.6%에 달한다. 이런 상황에서 AI 컴패니언이라는 중독성 강한 서비스가 무방비로 확산 중이다.
우리는 두 마리의 회색 코뿔소를 마주하고 있다. 적절한 소셜미디어 규제는 더 이상 미룰 수 없는 과제다. 하지만, 여기서 멈춰선 안 된다. 무서운 기세로 달려오는 AI 컴패니언에 대해서도 발 빠른 대응이 동시에 이뤄져야 한다. 소셜미디어 규제에 10년이 걸렸고, 그 대가는 아이들의 정서적 고통이었다. AI 앞에서 똑같은 실수를 반복할 수 없다. 캐릭터AI의 CEO조차 18세 미만 전면 차단이 업계 표준이 되길 바란다고 밝혔다. 당장 두 가지 위협 모두에 대한 안전장치 마련에 나서야 한다. 방관의 대가는 우리 아이들의 미래이기 때문이다.