생성형 AI와 대형 모델이 실무에 쓰이는 빈도가 늘면서, 단순한 개인정보 유출을 넘는 기술적·공격적 위협이 현실화하고 있습니다. 몇몇 연구와 사례에서 LLM 안전필터가 교묘한 프롬프트 인젝션을 완전히 차단하지 못해 민감 데이터가 노출되는 경우가 관찰되었고, 단순한 문자 변형으로 필터를 우회하는 토크나이저 회피 사례도 보고되었다. 또한 모델이 학습 문서에서 개인식별정보를 재생산하는 현상은 여러 학술 실험에서 반복적으로 확인되어, 민감 정보를 포함한 학습이 고위험으로 분류되는 근거가 되고 이 같은 사고는 개인의 프라이버시 침해로 인한 법적·금전적 손실, 모델·서비스의 경쟁력 상실, 잘못된 권고나 허위 정보 유포로 인한 사회적 신뢰 훼손 등 직접적·간접적 피해로 이어진다.