딥페이크의 부정적 영향을 막아보자

by Sherlock Park

온라인 플랫폼에서 상대방이 제공하는 텍스트, 음성, 이미지, 동영상이 딥페이크인지 확인할 수 있다면 로맨스 스캠 피해를 막는데 도움이 될 것입니다. 상대방이 조작된 콘텐츠를 사용하고 있다는 것을 알게 되면 신뢰를 거둘 수 있으니까요. 2023년 10월, 미국 바이든 행정부는 안전하고 신뢰할 수 있는 인공지능 개발 및 사용 행정명령Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence을 발표했습니다. 이 명령에는 합성 콘텐츠로 인한 위험을 줄이기 위해 이를 식별하고 워터마킹 등을 이용해 라벨링 하는 내용이 포함되어 있는데요. 이러한 기술이 고도화되고 상용화된다면 로맨스 스캠을 비롯한 딥페이크 범죄 예방에 큰 도움이 될 것입니다.

정부 차원의 노력뿐만 아니라 기업 차원에서도 딥페이크로 인한 위험을 줄이기 위한 노력들이 진행되고 있는데요. 2024년 2월에 구글, IBM, 메타, 마이크로소프트 등 주요 빅테크 기업들은 자사 플랫폼에서 딥페이크가 생성되거나 배포될 때 이를 탐지하고 라벨을 붙이는 조치를 자발적으로 취하기로 합의했습니다. 다만 이 조치는 강제사항이 아니며 또 딥페이크가 선거에 미치는 악영향을 막는 데 초점을 맞추고 있어 다소 아쉽습니다. 그럼에도 이러한 기업들의 노력이 효과를 거두고 지지를 얻는다면 비단 선거뿐만 아니라 다른 영역의 딥페이크에도 유사한 조치가 취해지지 않을까 기대해 볼 수 있습니다.

구글은 2024년 5월에 개최된 연례 개발자 콘퍼런스 ‘2024 구글 I/O’에서 구글의 디지털 워터마킹 기술인 신스IDSynth ID를 텍스트 생성 AI인 제미나이Gemini와 비디오 생성 AI인 비오Veo에 적용한다고 발표했는데요. 신스ID는 텍스트, 비디오뿐 아니라 이미지와 오디오에도 적용 가능한 워터마킹 기술로 생성형 AI가 만든 콘텐츠에 디지털 워터마크를 삽입하고 나중에 이를 탐지할 수 있게 해 줍니다. 따라서 제미나이와 비오에서 생성된 콘테츠에 워터마크가 삽입되면 이후 이를 확인해 해당 콘텐츠가 AI에 의해 만들어졌음을 확인할 수 있는 것이지요.

어떤 콘텐츠가 AI에 의해 생성되었는지 아는 것은 정보에 대한 신뢰도를 높이는 데 매우 중요합니다. AI가 생성했다고 해서 모두 거짓 정보인 것은 아니지만 적어도 이 정보를 믿고 받아들이기 위해서는 그 출처를 아는 것은 필요하지요. 하지만 아직까지 워터마크가 삽입된 딥페이크는 드물고요. 만약 워터마크가 삽입되어 있다 하더라도 어떤 생성형 AI가 제작했는지를 알기 어려운 상황에서는 이를 탐지하기가 쉽지 않습니다. 뿐만 아니라, 워터마크를 지우거나 탐지가 불가능하도록 하는 기술도 존재하고요. 그래서 온라인에서 상대방과 관계를 이어가는 중에 상대방이 제공한 사진이나 영상이 의심스러워도 이를 딥페이크로 판별하는 방법이 마땅치 않은 것이 현실입니다. 그럼에도 불구하고 불가능해 보였던 것들이 기술의 발전으로 조금씩 현실화되는 것처럼, 딥페이크 탐지 기술도 멀리 있는 것처럼 보이더라도 언젠가 우리 곁에 자리 잡게 되지 않을까 기대합니다.

keyword
작가의 이전글로맨스 스캠 피해를 줄이는 방법