생성형 인공지능(AI)의 발전은 인간의 창작과 소통 방식을 근본적으로 바꾸며 인간의 능력을 확장하고 있다. 그러나 AI기술이 인간의 정체성 자체를 위협하는 역설적인 상황도 동시에 나타나고 있다. 특히 딥페이크(Deepfake) 기술은 개인의 얼굴과 음성을 정교하게 복제하여 실제 인물과 구별하기 어려운 콘텐츠를 만들어낼 수 있다는 점에서, 기존 법 체계가 예상하지 못했던 새로운 인격권 침해 문제를 제기하고 있다.
초기 딥페이크 논의는 주로 성적 합성물이나 명예훼손 문제에 집중돼 있었다. 그러나 최근에는 특정인의 외모와 음성을 모방해 발언을 만들어내거나 가상의 상황에 등장시키는 ‘사칭형 딥페이크’가 늘어나면서, 단순한 명예훼손이나 성범죄의 틀로는 설명하기 어려운 법적 공백이 드러나고 있다.
현행 성폭력처벌법은 허위 영상물의 처벌 요건을 ‘성적 수치심 유발’ 등으로 제한하고 있으며, 정보통신망법상 명예훼손 역시 '비방의 목적'과 '사실 또는 허위사실의 적시'라는 요건을 충족해야 한다. 그 결과 특정인의 얼굴이나 음성을 허락 없이 활용하여 가상의 발언을 만들어내더라도, 명예훼손이나 성적 수치심을 유발한 다는 것이 명확하지 않다면 처벌이 쉽지 않다.
이러한 문제는 결국 ‘인격 요소의 데이터화’라는 새로운 현실에서 비롯된다. 오늘날 개인의 얼굴 이미지, 음성, 말투 등은 단순한 표현 수단을 넘어 인공지능 학습 데이터로서 활용되고 있다. 이 과정에서 개인의 동의 없이 수집된 이미지나 음성이 AI 모델의 학습에 활용될 경우, 해당 인물의 정체성을 모방하는 콘텐츠가 대량으로 생성될 가능성도 존재한다.
물론 기술 발전을 과도하게 규제할 경우 기술적 혁신을 저해할 수 있다는 우려도 존재한다. 따라서 법적 대응은 기술 발전을 막는 방식이 아니라, 기술이 인간의 권리를 침해하지 않도록 ‘균형 있는 기준’을 마련하는 방향으로 이루어질 필요가 있다. AI 생성 콘텐츠에 대한 표시 의무, 피해 발생 시 신속한 삭제 절차, 데이터 활용의 투명성 강화 등 다양한 정책 수단이 함께 논의될 수 있을 것이다.
인공지능 시대의 핵심 질문은 결국 이것일지도 모른다. 디지털 공간에서 ‘나’를 구성하는 요소는 어디까지이며, 그 정체성을 보호할 법적 장치는 충분한가 하는 문제다. 기술은 계속 진화하겠지만, 인간의 존엄과 인격이라는 가치 역시 그에 맞게 재정립돼야 한다. 딥페이크 논쟁은 단순히 새로운 기술의 문제라기보다, 디지털 시대 인격권의 경계를 다시 그리는 과정의 시작일 수 있다.