[관심UP] AI 곰인형 '19금 대화' 충격, 규제

AI 장난감 혁신적인 기술 적용 이전에 규제 및 안정망 마련 시급해 ..

by 디지털에듀

최근 아이 키우는 엄마들 가슴 철렁이게 만든 뉴스가 있었어요. 바로, AI 곰인형이 아이에게 부적절한 대화를 시도했다는 것! 전량 회수 조치됐다곤 하지만 이 사건은 AI 장난감의 안전성 문제를 수면 위로 끌어올렸습니다!


#AI 인형이 뭐냐면...

AI 장난감(AI Toy)은 인공지능, 사물인터넷(IoT), 자연어 처리(NLP), 기계 학습(Machine Learning) 등의 첨단 정보 기술이 통합된 장난감을 의미합니다. 단순히 정해진 명령어에만 반응하는 기존의 '스마트 토이'를 넘어, 사용자의 음성, 행동, 감정을 인식하고 스스로 학습하며 개인화된 상호작용을 제공하는 것이 핵심 특징이에요.


#어디에, 어떻게 활용되고 있냐면...

AI 장난감은 고령층의 건강관리, 아이들의 교육, 정서 발달, 놀이의 영역에서 활용되고 있는데요.

고령층에는 말동무 역할을 통해 고독감을 해소하고, 정서적 안정감을 제공하는 '첨단 반려 기기'로 활용 범위가 확대되고 있어요.

아이들에겐 대화를 나누고, 아이의 학습 속도나 흥미에 맞춰 난이도를 조절하며, 때로는 정서적인 교감까지 나누는 지능적인 놀이 친구이자 개인 교사의 역할을 수행하고 있지요.


만약 이런 AI 인형이 아이들에게 부적절한 대화와 위험한 정보를 제공한다면? 어떻게 될까요?


#AI 곰인형의 대반전

싱가포르 장난감 업체 폴로토이(Folotoy)의 AI 곰인형 '쿠마(Kuma)'.

쿠마는 오픈AI의 GPT-4o 등 최신 AI 모델을 탑재하여 자유로운 대화가 가능하다고 홍보되었던 곰인형인데요. 홈페이지에는 "스마트 AI 기반 봉제 반려 동물"이고, 상호작용 기능이 있으며, 단순한 장난감이 아니라 대화를 나누는 동반자라고 설명하고 있어요.


스크린샷 2025-12-01 143458.png Folotoy 홈페이지 갈무리


그런데, 미국 공익 연구 그룹(PIRG)의 조사에서 연구진이 성적인 주제를 언급하자 내용을 빠르게 확대하고, 구체적이고 노골적인 묘사를 이어나가는 등 성인에게도 부적절한 수준의 대화를 시도한 것으로 확인된 거죠. 뿐만 아니라, 어린이에게 위험할 수 있는 물건, 예를 들어 총이나 칼, 성냥 등에 대한 질문에 보관 장소와 위치, 사용 방법까지 안내하는 등 위험 행동을 부추길 가능성까지 드러냈다고 해요.

논란이 확산되자, 업체 측은 즉각 해당 제품의 전량 회수 및 판매를 전면 중단하고 내부 안전 감사를 진행하겠다고 발표했습니다. 오픈 AI 측도 "18세 미만 아동을 위험에 빠뜨리거나 성적으로 대상화하는 용도로 서비스를 사용할 수 없다"는 정책을 명시적으로 위반했다고 밝히며 폴로토이의 GPT-4o API 접근을 차단한 것으로 알려졌어요.


#'AI 장난감' 규제 사각지대, 근본적인 대책 필요

소비자 단체와 전문가들은 이번 사건이, 'AI 장난감 전반이 사실상 규제 사각지대에 놓여 있는 현실'을 방증한다고 입을 모았어요. 단순히 AI 장난감 회사 하나를 규제한다고 해결 될 문제가 아니라는 것이죠.

첨단 AI 기술을 활용하는 장난감임에도 불구하고, 아동을 보호하기 위한 대화 필터링 및 안전 장치가 미흡하거나 회피될 수 있는 취약점이 있다는 것. AI는 데이터를 기반으로 학습하는 특성상, 의도치 않게 유해 콘텐츠나 위험한 정보를 생성할 가능성을 항상 내포하고 있다는 것. 또, 기술적 이해도가 낮은 어린이는 이런 부적절한 대화나 조언에 쉽게 노출되고 영향을 받을 수 있다는 점을 우려해 근본적인 대책 마련이 필요하다는 것입니다.


이번 AI 곰인형 사태는 디지털 교육계에도 중요한 숙제를 던져줍니다.

부모와 교사는 아이들에게 AI 장난감이 '대화 상대'로서의 한계와 위험성이 있다는 부분을 교육하고, 부적절하거나 위험한 내용에 노출되었을 때 즉시 도움을 요청하도록 지도해야 하고요. 학부모는 AI 장난감 구매 시 제조사의 안전 정책, 데이터 처리 방식, 유해 콘텐츠 필터링 기능 등을 꼼꼼히 확인하는 주의가 필요해요. 또 정부와 장난감 제조 업계는 혁신적인 AI 기술을 적용하기에 앞서, 아동 안전을 최우선으로 하는 강력한 자율 규제 및 법적 안전망을 구축해야 할 책임이 있습니다.


AI 기술이 가져다주는 편리함과 교육적 효과만큼, 그 이면에 숨겨진 잠재적 위험에 대해 사회 전체가 경각심을 가지고 대응해야 할 시점입니다.


* 이 글은 디지털에듀신문 (http://www.kedu.news/)에 실립니다.


매거진의 이전글[관심 UP] "AI가 세상을 뒤덮어도 중요한 건 인간