AI의 잊을 권리
LLM 언러닝, AI가 잊을 권리를 통제할 수 있을까?
얼마 전 AI 툴을 사용하다가 의도치 않게 민감한 정보가 흘러나오는 걸 봤습니다.
순간 등골이 서늘했어요. 이게 삭제 해줘하고 요청 한다고 삭제되는게 아니니까요.
그때 생각했습니다. AI가 이미 학습한 지식을 지워야 한다면 어떻게 해야하나?
언러닝(Unlearning)은 이미 학습된 LLM에서 특정 지식이나 데이터를 지워내는걸 말합니다.
단순한 삭제가 아니라, 학습된 수많은 가중치 속에서 해당 흔적 자체를 없애는 일이죠.
예를 들어 개인정보가 포함된 문장, 저작권 위반 콘텐츠, 혹은 편향된 데이터가 문제될 때 모델에게 잊어버리게 하는 것입니다.
2024년에 발표된 UNLEARN이라는 기법은 놀라웠습니다. 모델 전체를 다시 학습시키지 않고도 특정 지식을 약 96% 제거하면서, 다른 성능은 원래 모델 대비 2.5% 이내만 떨어뜨렸습니다.
올해는 Align-then-Unlearn 같은 방식이 나왔는데, 토큰을 직접 지우는 대신 의미 공간에서 표현을 조정해 더 정교하고 안정적으로 잊기를 가능하게 했습니다.
수치만 놓고 보면, 이제 언러닝은 단순한 아이디어가 아니라 실질적인 기술 단계로 들어서고 있습니다.
하지만 여전히 남는 문제들이 있습니다.
최근 뉴스가 이를 잘 보여줍니다.
앤트로픽(Anthropic)은 불법 복제된 책(pirated books)을 학습 데이터로 사용했다는 이유로 작가 집단에게 소송을 당했고,
무려 15억 달러(약 2조 원) 에 달하는 합의금을 지급하기로 했습니다.
또한 정말 완전히 잊었는지 검증하는 일은 여전히 어렵습니다.
특정 지식을 지울 때, 다른 중요한 지식까지 함께 손상될 위험도 있습니다.
누가, 언제, 어떤 기준으로 언러닝을 요청할 수 있는지 법적, 윤리적 기준도 불명확합니다.
결국 기술과 제도가 동시에 발전해야 하는 영역이죠.
우리가 지금 할 수 있는 일은 어떤게 있을까요?
이걸 단순히 먼 미래의 기술이라고 치부할 필요는 없습니다.
AI 툴을 개발하거나 운영한다면, 언러닝 정책을 미리 만들어두세요.
계약서나 약관에 “사용자가 요청하면 어떤 데이터를 지우고 어떻게 증명할 것인지” 명시할 수 있습니다.
작은 PoC라도 Align-then-Unlearn 같은 기법을 실험해 보는 것만으로도, 조직 차원의 준비가 시작됩니다.
AI가 더 똑똑해질수록, 잊을 수 있는 능력은 단순한 기능이 아니라 신뢰를 위한 조건이 됩니다.
저는 언러닝을 볼 때마다 AI가 무엇을 아느냐보다, 무엇을 책임 있게 잊을 수 있느냐가 앞으로 더 중요해질지도 모른다고 생각합니다.
여러분은 어떠세요? AI에게도 잊을 권리가 필요하다고 생각하시나요?