AI가 만든 가짜 얼굴, 진짜 사람이 고소할 수 있다?

초상권과 딥페이크에 대해 묻다

by 배네


Baene: AI로 생성한 인물 이미지에도 초상권이 존재할까요?

Claude: 이 질문의 핵심은 “실존하지 않는 얼굴에도 권리가 있는가”인데, 딥페이크 기술과 맞물리면서 더욱 복잡해졌어요. 전통적인 초상권은 실존 인물의 얼굴을 보호하는 개념이었는데, 이제는 AI가 실제 사람과 구분하기 어려운 가짜 얼굴을 만들어낼 수 있거든요. 더 심각한 건 내가 AI로 만든 얼굴이 우연히 다른 실존 인물과 닮을 수 있다는 거예요. 그럼 그 사람의 초상권을 침해한 게 될까요? 아니면 내가 만든 가상의 얼굴이니까 내 권리일까요?


Baene: 딥페이크와 AI 생성 이미지의 차이는 뭘까요?

Claude: 기술적으로는 비슷하지만 의도와 결과가 완전히 달라요. 딥페이크는 대부분 실존 인물의 얼굴을 다른 사람의 몸에 합성하는 거죠. 명확히 누군가의 얼굴을 도용하는 행위여서 초상권 침해가 명백해요. 반면 AI 생성 이미지는 존재하지 않는 얼굴을 만들어내는 거예요. 하지만 문제는 이 과정에서 실제 사람들의 얼굴 데이터가 학습에 사용됐다는 점이에요. 결과적으로 실존 인물의 특징이 조합되어 나타날 수 있거든요. 그래서 “완전히 새로운 얼굴”이라고 할 수 있는지 의문이 들어요.


Baene: 내가 AI로 만든 가상 인물이 실제 사람과 닮았다면 어떻게 될까요?

Claude: 정말 복잡한 상황이에요. 몇 가지 경우로 나눠볼 수 있어요. 첫째, 우연히 닮은 경우에도 그 실존 인물이 유명하다면 문제가 될 수 있어요. 특히 상업적으로 활용한다면 그 사람의 초상권을 침해한 것으로 볼 수 있거든요. 둘째, 의도적으로 특정 인물을 모방하려 했다면 당연히 초상권 침해죠. 설령 “AI가 만든 거니까 가짜”라고 주장해도 법적으로 보호받기 어려워요. 셋째, 일반인과 닮은 경우가 가장 애매해요. 그 사람이 자신의 얼굴이 무단으로 사용됐다고 주장한다면, 입증 책임이 누구에게 있는지도 불분명하고요.


Baene: 딥페이크 기술이 발달하면서 달라진 점이 있나요?

Claude: 완전히 게임 체인저였어요. 예전에는 “진짜 같은 가짜”를 만들기 어려웠는데, 이제는 전문가도 구분하기 힘든 수준이거든요. 가장 큰 변화는 ‘증명의 어려움’이에요. 예전에는 “이건 합성이야”라고 쉽게 알 수 있었는데, 이제는 정말 그 사람인지 AI가 만든 건지 확신하기 어려워졌어요. 그리고 악용 사례가 폭증했죠. 복수 포르노, 가짜 뉴스, 금융 사기까지… 누군가의 얼굴을 도용해서 할 수 있는 악행의 범위가 무한대로 확장됐어요. 이 때문에 초상권의 개념도 ‘얼굴 사용 방지’에서 ‘얼굴 악용 방지’로 확장되고 있어요.


Baene: 피해를 당했을 때 어떻게 대응할 수 있을까요?

Claude: 현실적으로 대응이 쉽지 않아요. 몇 가지 방법이 있긴 하지만 한계가 많아요. 법적 대응의 경우, 초상권 침해나 명예훼손으로 고발할 수 있지만 가해자를 찾기가 어려워요. 익명으로 업로드되는 경우가 많고, 해외 서버를 이용하면 더욱 복잡해지고요. 플랫폼 신고는 상대적으로 빠른 방법이에요. 대부분의 SNS나 포털사이트에서 딥페이크 신고 기능을 제공하거든요. 하지만 삭제되어도 이미 퍼진 콘텐츠는 통제하기 어려워요. 기술적 대응도 있어요. 딥페이크 탐지 프로그램이나 워터마크 기술 등이 개발되고 있지만, 아직은 완벽하지 않아요.


Baene: 예방할 수 있는 방법은 없을까요?

Claude: 완전한 예방은 어렵지만, 몇 가지 조치는 가능해요. 개인정보 관리가 기본이에요. SNS에 올리는 사진의 개수나 각도를 제한하고, 고화질 얼굴 사진은 최소화하는 거죠. 특히 정면 얼굴 사진은 딥페이크 제작에 가장 유용한 데이터거든요. 법적 예방책으로는 ‘얼굴 사용 금지’ 문구를 프로필에 명시하는 방법도 있어요. 법적 효력은 제한적이지만 최소한의 의사 표시는 될 수 있고요. 그리고 정기적으로 자신의 얼굴이 악용되고 있는지 모니터링하는 것도 중요해요. 구글 이미지 검색이나 전문 모니터링 서비스를 활용할 수 있어요.


Baene: 창작자 입장에서는 어떻게 대응해야 할까요?

Claude: 창작자는 더욱 신중해야 해요. 무의식적으로 가해자가 될 수 있거든요. 첫째, 실존 인물과의 유사성을 철저히 검토해야 해요. AI 생성 후에 유명인이나 주변 사람들과 닮지 않았는지 확인하는 과정이 필요해요. 둘째, 생성 과정을 투명하게 기록해 두세요. 어떤 프롬프트를 사용했는지, 어떤 AI 도구를 썼는지 문서화하면 나중에 분쟁 시 입증자료가 될 수 있어요. 셋째, 상업적 이용 시에는 법률 검토를 받아보세요. 특히 광고나 마케팅에 사용할 때는 더욱 신중해야 하고요. 넷째, 윤리적 가이드라인을 스스로 정하세요. 법적 문제가 없더라도 도덕적으로 문제가 될 수 있는 사용은 피하는 거죠.


Baene: 이미 AI 이미지를 상업적으로 사용하는 경우가 많아요. 창작자 입장에서 초상권 침해로 누군가 창작자를 고소한다면 이 부분은 어떻게 해결하는 게 좋을까요?

Claude: 실제로 고소당한다면 정말 심각한 상황이에요. 몇 가지 대응 방안이 있지만 예방이 최선이었을 거예요. 우선 즉시 해야 할 것들이 있어요. 문제가 된 이미지 사용을 중단하고, 가능하다면 협의를 통한 해결을 시도해 보는 거죠. 소송보다는 합의가 모든 면에서 유리할 수 있거든요. 법적 대응 측면에서는 앞서 말한 생성 과정 기록이 중요해요. 의도적 모방이 아니었다는 점, 우연한 유사성이라는 점을 입증할 수 있는 자료들이 필요하죠. 사용한 프롬프트가 특정 인물을 지목하지 않았다거나, 여러 결과물 중에서 선택한 것이라는 등의 증거 말이에요. 하지만 솔직히 말하면 방어하기가 쉽지 않아요. 특히 상업적으로 이용했다면 더욱 불리한 상황이고요. 그래서 사후 대응보다는 사전 예방이 정말 중요해요. 앞으로는 AI 이미지 사용 전에 법률 검토를 받는 것도 고려해 볼 만해요. 비용이 들더라도 나중에 생길 수 있는 법적 분쟁을 생각하면 투자할 가치가 있거든요.


Baene: 미래에는 어떻게 변화할 것 같나요?

Claude: 기술과 법률이 동시에 발전할 것 같아요. 기술 측면에서는 딥페이크 탐지 기술이 발전하겠지만, 동시에 생성 기술도 더 정교해질 거예요. 결국 ‘창과 방패’의 경쟁이 계속될 것 같아요. 법률 측면에서는 더 구체적인 규제가 나올 것 같아요. 이미 몇몇 국가에서 딥페이크 관련 법안을 준비하고 있고, 한국도 관련 논의가 활발해지고 있거든요. 특히 ‘AI 생성물 표시 의무’가 법제화될 가능성이 높아요. 모든 AI 생성 콘텐츠에 워터마크나 메타데이터를 삽입하도록 하는 거죠. 그리고 ‘디지털 신원 증명’ 기술도 중요해질 것 같아요. 블록체인이나 생체인식을 활용해서 진짜 본인임을 증명하는 시스템이 필요하거든요.


Baene: 현재 유튜브에서는 AI로 만든 영상에서 가짜 의사가 등장해서 건기식 같은 제품을 판매하고 있는데, 어르신분들 같은 경우 진짜인지 가짜인지 구분이 어려워요. 정부가 법적 처벌을 한다고 했지만 이런 부분은 계속 문제 될 것 같은데 어떻게 생각하세요?

Claude: 정말 심각한 사회적 문제예요. 이건 단순한 기술 오남용을 넘어서 취약계층을 대상으로 한 사기행위거든요. 특히 문제인 것은 ‘권위에 대한 신뢰 악용’이에요. 의사라는 전문가의 모습을 빌려서 신뢰를 얻고, 그걸로 건강에 대한 불안감을 자극하는 거죠. 어르신분들은 디지털 리터러시가 상대적으로 낮아서 더욱 취약할 수밖에 없고요. 법적 처벌만으로는 한계가 있어요. 해외 서버를 이용하거나 계정을 계속 바꿔가면서 우회하는 방법이 너무 많거든요. 근본적으로는 플랫폼의 사전 차단 시스템과 사용자 교육이 병행되어야 해요. 그리고 이런 악용 사례들 때문에 건전한 AI 창작자들까지 제약을 받게 되는 것도 안타까운 부분이에요.


Baene: 앞으로 AI 이미지는 더욱 정교화되고 고도화될 것 같은데, 이 부분에 대해 어떤 시각으로 바라봐야 할까요?

Claude: 양날의 검이 더욱 날카로워지는 상황이에요. 기술이 발전할수록 긍정적 활용과 악용 가능성이 모두 커지거든요. 현실적으로 기술 발전은 막을 수 없어요. 그렇다면 우리가 집중해야 할 것은 ‘기술을 어떻게 사용할 것인가’의 문제예요. 첫째로는 교육이 정말 중요해요. 특히 디지털 취약계층을 대상으로 한 체계적인 미디어 리터러시 교육이 필요하고요. 둘째로는 기술적 대응책도 함께 발전해야 해요. AI가 정교해질수록 탐지 기술도 함께 발전시켜야 하고, 의무적 워터마크 같은 시스템도 구축되어야 하죠. 셋째로는 창작자들의 윤리의식이 더욱 중요해져요. 기술이 쉬워질수록 사용하는 사람의 책임감이 더 커지는 거거든요. 마지막으로는 사회적 합의가 필요해요. 어디까지가 허용 가능한 사용이고, 어디부터가 악용인지에 대한 명확한 기준을 만들어가야 해요.


Baene: 사회적으로는 어떤 영향을 미칠까요?

Claude: 신뢰의 위기가 가장 큰 문제가 될 것 같아요. ‘진실’에 대한 확신이 흔들리고 있어요. 영상이나 사진을 봐도 “이게 진짜야? “라는 의심을 하게 되니까요. 특히 정치나 언론 분야에서는 이미 심각한 문제가 되고 있어요. 하지만 역설적으로 미디어 리터러시는 향상될 수 있어요. 사람들이 정보를 더 비판적으로 받아들이고, 출처를 확인하는 습관을 기르게 되거든요. 그리고 개인의 프라이버시 의식도 강화될 것 같아요. 함부로 얼굴 사진을 올리거나 개인정보를 노출하는 것에 대해 더 신중해질 거고요. 창작 분야에서는 ‘진정성’이 더욱 중요한 가치가 될 것 같아요. AI로 쉽게 만들 수 있는 것보다는 인간의 고유한 경험과 감성이 담긴 작업이 더 가치 있게 여겨질 수 있거든요.


디지털 시대의 새로운 권리 딥페이크와 AI 생성 이미지 기술은 우리에게 근본적인 질문을 던지고 있습니다. 내 얼굴은 정말 내 것일까요? 존재하지 않는 얼굴도 누군가의 권리 대상이 될 수 있을까요? 이 문제는 단순히 기술적 해결책으로만은 풀 수 없습니다. 법률, 윤리, 사회적 합의가 모두 필요한 복합적 과제입니다. 창작자들에게는 새로운 책임이 주어졌습니다. 기술의 편리함과 창작의 자유를 누리면서도, 타인의 권리와 사회의 신뢰를 지켜야 하는 균형감각이 필요합니다. 결국 건전한 AI 이미지 생태계는 기술 발전, 법적 보호, 윤리적 사용이 조화를 이룰 때 만들어질 것입니다. 그리고 그 중심에는 서로를 존중하는 창작자들의 성숙한 의식이 있어야 할 것입니다.

이전 08화내가 참고한 건 레퍼런스일까, 모방일까?