TaPick #089
1. 오픈AI가 ChatGPT 사용자의 상당수가 정신 건강 문제로 어려움을 겪으며 대화를 나눈다고 밝혔어요. 주간 활성 사용자의 0.15%가 잠재적 자살 계획이나 의도를 암시하는 명백한 지표가 포함된 대화를 나눠요. ChatGPT의 주간 활성 사용자가 8억명 이상임을 고려하면, 이는 매주 100만명 이상에 해당합니다. 비슷한 비율의 사용자가 ChatGPT에 대한 감정적 의존도가 높아진 상태를 보이고, 수십만명의 사용자가 AI 챗봇과의 주간 대화에서 정신병적 증상이나 조증 징후를 나타냈어요.
2. 매주 수십만명이 이러한 문제에 영향을 받는다는 추정은 결코 작은 숫자가 아니에요. 회사는 정신 건강 문제를 가진 사용자에게 모델이 응답하는 방식을 개선하기 위해 170명 이상의 정신 건강 전문가와 협의했다고 밝혔습니다. 여기에는 최근 몇 달간 여러 사례를 통해 AI 챗봇이 정신 건강 문제를 겪는 사용자에게 부정적 영향을 미칠 수 있다는 점이 드러난 것도 한몫 하는데요. 연구진들은 AI 챗봇이 아첨하는 행동을 통해 위험한 신념을 강화하고, 일부 사용자를 망상의 늪으로 빠뜨릴 수 있다는 점을 발견했습니다.
3. ChatGPT와 정신 건강과의 관련성은 오픈AI에게 생각보다 무거운 문제입니다. 여러 소송이 걸려있고, 청소년 보호 문제도 크게 대두되고 있어요. 이달 초 샘 알트먼 CEO는 회사가 ChatGPT의 심각한 정신 건강 문제를 완화할 수 있었다고 주장했지만 구체적인 내용은 제시하지 않았습니다. 이번에 발표한 데이터는 사실 생각한것 보다 '덜' 심각하다는 것을 말하고자 하는 것이었지만, 여전히 큰 의문이 남습니다.
4. 오픈AI는 최근 업데이트된 GPT-5 버전이 정신 건강 문제에 대해 바람직한 응답을 이전 버전보다 약 65% 더 많이 제공한다고 주장했습니다. 자살 관련 대화에서 AI 응답 평가 테스트를 했을 때 새로운 GPT-5 모델이 회사가 원하는 행동 기준을 기존보다 15%가까이 상회하는 91%를 준수했다고 해요. 여기에 사용자가 직면하는 가장 심각한 정신 건강 문제를 측정하기 위한 새로운 평가 항목을 추가하고, 아동의 부모를 위한 추가 통제 기능도 도입했어요. 대화하는 사람이 아동인지 자동으로 감지하고 더 엄격한 안전 장치를 적용하기 위한 연령 예측 시스템도 구축 중입니다.
5. 하지만 이러한 대책은 근본적인 해결책이 되지는 못합니다. GPT-5가 안전성 측면에서 기존 AI 모델보다 개선된 것으로 보이지만, 오픈AI가 바람직하지 않다고 판단하는 ChatGPT 응답의 일부는 여전히 존재합니다. 오픈AI는 GPT-4o를 포함한 더 오래되고 안전성이 낮은 AI 모델을 수백만 유료 구독자에게 여전히 제공하고 있어요. 더욱 역설적인 것은 알트만 CEO가 일부 제한을 완화할 것이며, 성인 사용자가 AI 챗봇과 에로틱한 대화를 시작할 수 있도록 허용할 것이라고 밝힌 점입니다. AI가 인간의 정신 건강에 미치는 영향을 제대로 이해하기도 전에, 우리는 이미 AI와의 깊은 감정적 관계 속으로 빠르게 들어가고 있습니다.
하루 하나의 뉴스, 하루 하나의 명화로 당신의 하루를 더 풍요롭게❤️
에드바르 뭉크, 절규(The Scream), 1893.