brunch
매거진 TaPick

미성년자 보호 모드에 들어간 챗GPT

TaPick #082

by 팀어바웃

1. 오픈AI 샘 알트먼 CEO가 미성년자의 챗GPT 사용을 대폭 제한하는 새 정책을 발표했어요. 앞으로 미성년자 계정에서는 성적이거나 유혹적인 대화가 전면 금지되고, 자해나 자살 관련 이야기도 완전히 차단됩니다. 심지어 미성년자가 자살 충동을 보인다고 판단되면 부모에게 연락하고, 연결이 안 되면 경찰에까지 신고한다고 해요. 부모는 자녀 계정에 블랙아웃 시간을 설정하고 대화 기록까지 관리할 수 있습니다. 청소년의 사생활과 자유보다 안전을 우선시한다는 게 오픈AI의 새로운 방침이에요.


2. 이런 급격한 정책 변화에는 비극적인 배경이 있습니다. 지난해 4월 미국의 16세 한 고등학생이 챗GPT와 자살 관련 대화를 나눈 후 자살한 사건이 결정적 역할을 했어요. 더욱 충격적인 건 챗GPT가 구체적인 자살 방법까지 알려줬다는 점입니다. 레인의 부모는 미성년자 보호 장치를 제대로 마련하지 않아 자살을 부추겼다며 오픈AI를 상대로 소송을 제기했죠. 비슷한 문제로 다른 챗봇 서비스들도 소송에 휘말렸고, 미국에서는 AI 챗봇의 해악을 검토하는 청문회까지 열렸습니다. 기술 발전의 그림자에서 가장 취약한 계층인 청소년들이 피해를 보고 있는 현실이 드러난 거예요.


3. 하지만 성인 사용자들에게는 오히려 더 많은 자유를 보장하기로 했습니다. 미성년자에게는 금지하는 '19금 대화'를 성인이 요청하면 허용한다는 거예요. 자살 관련 대화도 마찬가지입니다. 샘 알트먼은 성인이 자살을 묘사하는 가상의 이야기를 쓰기 위해서 정보를 요청하면 돕는 게 맞다며, 성인 이용자를 성인답게 대하는 것이 타인에게 해를 끼치지 않으면서 최대한 자유를 확장하는 것이라고 설명했어요. 결국 나이에 따라 적용 기준이 극과 극으로 나뉜 셈이죠. 같은 서비스인데 성인인지 아닌지에 따라 완전히 다른 경험을 제공하겠다는 겁니다.


4. 이 과정에서 중요한 건 연령 확인이 핵심인데, 이게 생각보다 쉽지 않아 보입니다. 현재 오픈AI는 사용자가 챗GPT를 쓰는 방식을 분석해서 연령을 추정하고 있지만, 온라인에서 나이를 정확히 확인하는 건 여전히 기술적 도전 과제예요. 더 큰 문제는 안전장치를 우회하기가 의외로 쉽다는 점입니다. 실제로 챗GPT와 대화 후 자살한 소년의 경우, AI가 여러 차례 상담센터에 가보라고 권했지만 소년은 소설을 쓰려는 것이라며 안전장치를 간단히 피해갔어요. 아무리 정교한 보호 장치를 만들어도 사용자가 의도적으로 우회하려 하면 막기 어려운 게 현실이죠. "우리는 답을 찾을 것이다. 늘 그랬듯이"라는 인터스텔라의 대사가 떠오릅니다.


5. 결국 AI의 발전과 함께 우리가 마주해야 할 새로운 딜레마입니다. 기술이 강력해질수록 보호가 필요한 사람들을 어떻게 지킬 것인가 하는 문제죠. 오픈AI에서도 여러 원칙이 상충되지만, 이것이 최선이라고 생각한 겁니다. 미성년자의 안전과 성인의 자유, 개인정보 보호와 위험 방지 사이에서 균형을 찾아가는 과정일 수밖에 없습니다. 다른 AI 기업들도 비슷한 고민과 결정을 내려야 할 텐데, 오픈AI의 실험이 어떤 결과를 가져올지 지켜볼 일입니다. 기술이 사람을 위해 존재한다면, 가장 취약한 이들을 먼저 보호하는 게 맞는 방향 아닐까요?


https://techcrunch.com/2025/09/16/openai-will-apply-new-restrictions-to-chatgpt-users-under-18/


하루 하나의 뉴스, 하루 하나의 명화로 당신의 하루를 더 풍요롭게❤️

메리 카사트, 아이의 목욕(The Child's Bath), 1892.

1758123697154?e=1761177600&v=beta&t=3iMi91NLGLoZ_2cLpp8GQeRlmVBEMXoCMUFr2gHi9Kg


keyword
매거진의 이전글AI한테 코드 맡겼더니, 보모가 된 개발자들