오늘은 요즘 이슈가 된 ‘딥페이크’ 이야기를 해보려고 한다. ‘딥페이크’는 딥 러닝(deep learning)과 페이크(가짜, fake)의 합성어로, 인공지능 기술을 이용하여 진위 여부를 구별하기 어렵도록 다른 이미지나 영상과 합성한 가짜를 의미한다. 한마디로 원본 영상에서 얼굴 부분을 따와서 합성하고자 하는 대상의 얼굴에 덧씌우는 기술인 것이다. 이것을 자연스럽게 하려면 인공지능이 원본 얼굴의 다양한 표정 등 데이터를 학습해야 한다.
예전에는 헐리우드에서 <아바타>같은 영화를 만들 때, 비록 얼굴에 마커를 붙이고 컴퓨터를 이용해 합성을 했지만 최종적으로는 사람의 손을 많이 거쳤다. 그런데 이제 인공지능이 기반이 된 합성기술은 인간 디자이너의 자리를 위협한다고 한다. 보통 사람이 얼굴 하나가 나오는 한 컷을 수정하는데 5시간이 걸린다고 하는데 인공지능은 이걸 몇 분 또는 몇 초만에 해버리니까 말이다.
이런 기술을 좋은 일에만 쓰면 좋은데... 단어 자체가 의미하듯이 이 기술은 ‘정교한 가짜’를 만드는 기술이다. 그래서 사람을 속이는데 자주 사용되기도 한다.
넷플릭스 드라마 <셀러브리티>에도 이 ‘딥페이크’ 기술이 등장한다. 인기 있는 셀럽이 된 '서아리'라는 주인공이 극중에서 자살을 하는데, 이 죽은 줄 알았던 서아리가 느닷없이 다시 나타나서 라이브 방송을 시작한다. 그러면서 자신의 죽음과 관련된 인플루언서들의 비리를 폭로하기 시작한다. 죽은 사람이 다시 살아나서 인터넷 방송을 하자 세상은 난리가 난다. 그런데 사실은 라방의 주인공은 서아리가 아닌 서아리의 친구 '윤정선'이었던 것이다. 정선이 딥페이크와 딥보이스 기술을 사용해서 서아리인 척 한거였는데, 정선이 이 기술을 사용한 이유는 복수를 위해서였다.
이처럼 딥페이크가 사적으로 사용되는 경우에는 안 좋은 용도인 경우가 많다. 얼마 전 텔레그램에 개설된 단체 채팅방을 통해 서로 아는 지인들의 얼굴을 음란물과 합성하는 디지털 성범죄가 동시다발적으로 발견되어 우리 사회에 큰 충격을 준 일이 있었다. 그뿐만이 아니라 ‘딥누드’라는 도구도 있어서 옷 입은 사람의 사진을 나체로 뒤바꾸는 것도 가능해졌다. 그래서 K-pop 아이돌의 무대 직캠 영상에 나체를 합성한 영상이 만들어져 불법 사이트에서 유포된 일도 있었다.
더 큰 문제는 이걸로 끝나는 게 아니라 불법 영상을 만드는 이들이 가짜 영상을 주변 사람들에게 유포하겠다고 피해자를 협박하는 것이다. 피해자는 자신도 모르는 사이에 일어난 일에 정신적인 충격을 받는 동시에, 영상이 유포되면 벌어질 일 때문에 두려움에 떨게 되는것이다. 피해자가 된 한 여교사는 직장을 그만 두게 되었다는데, 그 이유는 누가 범인인지 특정할 수 없어서 만나는 학생마다 의심할 수밖에 없었는데 그 상황이 너무 괴로웠다고 한다.
윤리적인 문제 뿐 아니라 정치적으로도 나라를 혼돈에 빠트리는 문제를 일으킬 수 있다. 예를 들어 정치인이 선거 때 자신이 유리해지기 위해 라이벌에 대한 가짜 영상을 만들어 올리는 경우, 딥페이크 기술을 잘 알지 못하는 층에서는 그 영상을 믿어버리는 경우도 생길 수 있다. 그게 선거에서 영향을 미칠 수 있기 때문에 대부분의 나라에서는 인공지능을 활용한 선거운동을 못하게 금지하고 있다.
어쨌든 이런 일이 가능하게 된 이유 중 하나는 인공지능 기술의 대중화 때문이다. 앞에서도 이야기했지만 원래는 전문가가 수작업으로 수정하던 일이 이제는 앱 하나만 있으면 뚝딱하고 만들어지는 현실인 것이다. ‘딥보이스’라는 이름의 목소리 변조기술도 원본 목소리가 30초 정도만 있어도 바로 가짜 목소리를 만들어 낸다고 한다. 참 무서운 일이다... 기술의 발전은 이전에 일반인들이 하지 못했던 일들을 손쉽게 이뤄지게 하는데, 그게 누가 어떤 목적으로 사용하느냐에 따라 좋은 방향으로 쓰일 수도 있지만 악한 용도로도 쓰일 수 있는 것이다. 그래서 우리가 사는 시대는 내가 콘텐츠를 양산할 수도 있고 아니면 내가 콘텐츠의 타겟이 될 수도 있는 상황인 것이다.
그러면 이런 딥페이크의 폐해를 막을 수 있는 방법이 있을까? 일단 딥페이크 탐지 및 방지기술이 계속 발전하고 있다는 게 위안이 되는 점이다. 경찰도 이런 기술 개발에 3년 간 91억원을 투입한다는 뉴스도 최근에 나왔고.
앞에서도 말했듯이 딥페이크에서 사용되는 기술인 딥러닝(심화학습)은 기존 원본 영상을 학습한 후에 새로운 이미지를 만들어 내는 것이기 때문에 기본적으로 데이터가 필요하다. 그러니까 아직 인공지능이 무에서 유를 창조할 정도의 창의성은 없다는 이야기다. 그래서 데이터가 부족하면 그 결과물도 어색한 내용이 나오기 때문에 그걸로 진짜인지 가짜인지를 탐지한다고 한다. 동영상 사이트 등에 업로드 시에 가짜 영상은 사전 탐지가 되어서 업로드가 안되는 기술이 나온다면 정말 좋을 것 같다.
전문가들은 이런 기술의 발전도 중요하지만, 정부에서도 좀 더 강력한 규제 그러니까 불법 영상을 만들어서 올리는 사람 뿐 아니라, 그것을 소지하거나 시청하는 사람도 처벌해야 한다고 주장하고 있다. 처벌이 강화된다면 영상물을 이전처럼 쉽게 만들지는 못하겠지?
그러나 나는 마지막 부분이 가장 중요하다고 생각한다. 딥페이크로 합성된 영상은 여성을 하나의 성적인 대상으로 전락시키고 상품화한 것이기 때문에 이것이 명백한 범죄 행위이며 소비를 해서는 안된다는 모두의 인식이 필요하다고 생각한다. 상대방을 욕망의 도구가 아닌 하나님의 자녀로 생각한다면 이런 일을 할 수 있을까? 성경에서도 ‘나이 많은 여자들에게는 어머니를 대하듯 하고 젊은 여자들에게는 깨끗한 마음으로 대하시오’(디모데전서 5장 2절)라고 권면하고 있다.
기술은 앞으로도 계속 발전해 나갈 것인데 결국에는 그것을 다루는 이들이 어떤 자세로 기술을 대할 것인가가 더 중요하다. 그것은 사람을 살릴 수도 있고 죽일 수도 있는 부분이다. 인공지능을 비롯한 새로운 기술이 우리 앞에 나타날 때는 이 기술이 우리 삶에 어떤 영향을 미칠지 그리고 그것을 어떻게 선한 도구로 활용할 수 있을지 고민하는 게 필요하다.