사만사 콜, 2017년 12월 12일, 마더후드 바이스
원문: AI-Assisted Fake Porn Is Here and We're All Fucked
영화배우 갤 가돗(Gal Gatot)이 자신의 이복 남동생과 섹스를 하는 동영상이 온라인에서 발견되었다. 하지만 그녀의 몸은 진짜 갤 가돗과는 거리가 멀고, 얼굴만 가까스로 배우와 똑같다. 이건 일종의 합성으로써, 기존의 근친상간 포르노 영상에 그녀가 진짜로 출연한 것처럼 보이기 위해 다른 배우의 몸에 얼굴만을 바꾼 것이었다.
갤 가돗 영상은 머신러닝 알고리듬으로 만들어졌는데, 온라인에 흔한 프로그램과 오픈 소스 코드를 사용하고, 거기에 약간의 딥러닝 지식을 보태면 된다.
하지만 모든 사람들이 이 작품에 의해 바보가 되지는 않을 것이다. 때때로 얼굴 합성은 티가 나서, 오히려 보는 이로 하여금 반감(uncanny vallet effect)을 얻을 정도로 불안정하지만, 처음 봤을 때는 진짜 갤 가돗이 출연한 포르노처럼 생각되기 쉽다. 특히, 영화 [로그 원: 스타워즈 스토리]에서 레이아 공주를 컴퓨터 특수효과로 만들어내는 유명 영상 스튜디오의 창작물이 아닌, 그저 자신의 아이디를 'deepfakes'라고 만든 레딧(Reddit) 사용자, 단 한 명이 만들어냈다는 점을 알게 되면 더더욱 놀랍다. deepfakes라는 계정 사용자는 오픈 소스 머신러닝 프로그램인 텐서플로우(Tensor Flow)를 사용했다고 하는데, 이는 구글이 연구원, 대학원생, 혹은 머신러닝에 관심 있는 사람이라면 누구나 쉽게 다운로드를 할 수 있는 구동 프로그램이다.
다른 사람의 목소리를 합성한 후 입력된 문장 그대로 내뱉게 해주는 어도비의 프로그램, 촬영된 영상 속에 등장하는 인물의 얼굴을 현재 사용자의 얼굴 표정으로 실시간 변환해주는 '페이스투페이스 알고리듬' 등등, 이런 새로운 기법을 사용하는 페이크 포르노(fake porn)는 사람들이 실제로 하지 말하지 않았던 문장을 직접 듣거나, 실제로 하지 않았던 행동을 했다고 믿게 해주는 조작 영상이, 그것이 심지어 섹스와 관련되었다고 하더라도, 쉽사리 제작될 수 있는 시대에 막 들어섰다는 시사점을 던져준다.
'deepfakes'라고 불리는 네티즌은 지금까지 스칼렛 요한슨, 메이지 윌리암스, 테일러 스위프트, 오브리 플라자, 그리고 갤 가돗의 얼굴을 합성한 여러 하드코어 포르노 영상을 레딧에 올린 바 있다. 나는 이들 배우의 기획사나 이미 및 초상권을 관리하는 에이전시에게 연락을 취했다. 만약 연락이 온다면 나는 추후에 기사로 작성할 예정이다.
유명 인사가 나오는 페이크 포르노, 정확히 말해서 이미지들을 포토샵으로 변환해서 마치 그들이 나체로 출연한 것처럼 보이는 영상들만 분류된 리스트는 이미 엄청난 지지층을 가지고 있었다. 'deepfakes'가 업로드한 레딧에서 사람들은 평을 하거나 순위를 매긴다. 또한 그들은 그의 작업을 지지한다. 갤 가돗의 영상은 이런 카테고리의 최신 기술이 들어간 작품이다.
"This is no longer rocket science."
혹여 신상이 폭로될 여지에 자신의 실명을 언급하는 걸 거부한 'deepfakes'에 따르면, 영상 제작 소프트웨어를 텐서플로우용 딥러닝 프런트엔드인 케라스(Keras) 등 다양한 오픈 소스 라이브러리로부터 얻었다고 답했다. 유명 인사의 얼굴을 합성하고자 그는 구글의 이미지 검색, 고용량의 상업 광고 사진(stock photos), 그리고 유튜브 동영상을 참고했다. 딥러닝은 입력된 데이터를 자율적으로 계산하는 노드들이 서로 연결되는 네트워크를 의미한다. 이번 경우에 'deepfakes'는 포르노 영상과 갤 가돗의 얼굴을 합성하는 알고리듬을 컴퓨터가 알아서 학습하도록 훈련을 시도했다. 훈련이 충분히 진행되자, 특정 임무, 이를 테면 사람들이 넘어갈 정도로 합성 영상을 남몰래 만들 수 있을 정도로를 수행할 정도로 노드들이 서로 연결되었다.
인공지능 전문가인 알렉스 챔판다드(Alex Champandard)는 나에게 보낸 이메일에서, 소비자들이 쉽게 활용 가능한 그래픽 카드가 나오면서 이런 영상 제작에는 고작 몇 시간밖에 안 걸리지만, 하지만 컴퓨터 중앙처리장치(CPU)는 좀 더 느리게 진행되므로 며칠 정도 걸리게 된다고 말했다.
"이건 전문가들만이 할 수 있는 작업이 더 이상 아니에요."라고 챔판다드가 덧붙여 말했다.
누구나 이런 제작을 할 수 있다는 사실이 소름 끼친다. 기술적인 문제를 잠시 제쳐두고, 영상 제작을 원하는 사람들이 필요로 하는 건, 오직 당신의 얼굴이 촬영된 이미지이며, 우리 대다수는 SNS를 통해 사진이나 동영상을 끊임없이 확장되는 데이터베이스에 저장하고 있다. 전 세계의 사람들은 2015~16년, 약 1년 동안 구글 포토(Google Photo)에 약 240억 장의 사진을 업로드했다. 어떤 사람을 사회적으로 매장시키고 싶어서 섹스 동영상을 만들 정도로 알고리듬을 스스로 습득한 아마추어 프로그래머가 그/그녀의 사진을 온라인에서 구하는 것은 매우 쉬운 일이다.
'deepfakes'는 나에게 자신은 전문가가 아니고, 단지 머신러닝에 관심이 있는 프로그래머라고 소개했다.
"얼굴 변환에 관해서 독창적인 방식을 막 개발했을 뿐"이라고 말한 그는 이어서 자신의 알고리듬을 설명했다. "(특정 사람의) 얼굴이 들어간 사진 수백 장을 사용하면서, 저는 네트워크를 훈련시키고자 수백만 장의 변환된(distorted) 이미지들을 쉽게 만들어냈어요." 그는 또 이렇게 말했다. "그 네트워크에 또 다른 사람의 사진들을 입력합니다. 그러면 그 네트워크는 이 이미지들이 방금 학습하던 변환된 이미지들과 비슷하다고 스스로 생각하고, 결국 변환된 얼굴을 더욱 정교하게 만드는 데 열중합니다."
레딧의 코멘트를 다는 스레드(thread)에서 'deepfakes'는 자신이 엔비디아(Nvidia) 연구진이 개발한 것과 비슷한 알고리듬을 사용했다고 전했다. 엔비디아의 알고리듬 역시 딥러닝에 활용이 되는데, 예를 들어서, 여름에 촬영된 영상을 마치 겨울에 찍은 것처럼 변환할 수가 있다. 알고리듬을 개발한 엔비디아 연구진은 갤 가돗 영상에 대한 코멘트를 거부했다.
그간 'deepfakes'가 올린 페이크 포르노 영상 대부분은 아주 만족스러운 결과를 만들지 못했다. 갤 가돗의 영상에서 원래 여성 포르노 배우 얼굴의 레이어가 종종 엿보일 때 반점이 생기거나, 대사를 말할 때 가돗의 눈이나 입모양이 따라가지 못하는 것도 발견했다. 하지만 당신의 눈이 약간 사시이거나, 진실을 꼭 밝혀내고픈 신념을 잠시나 미룬다면, 그 여성은 갤 가돗처럼 보인다. 'deepfakes'가 만든 다른 포르노 영상은 더욱 진짜 같다.
포르노 배우인 그레이스 에반젤린(Grace Evangeline)은 트위터 DM을 통해서 자신들이 출연한 작품들이 센드비드(SendVid) 같은 동영상 웹사이트에 아무런 허락 없이 업로드된다며 동종업계 동료들의 고충을 대신 전했다. 이번에 화제가 된 갤 가돗 영상도 센드비드에 올라와 있다. 하지만 에반젤린은 이 영상은 뭔가 다르다면서, 자신은 처음 보는 종류의 작품이라고 평했다.
"무엇이든지 간에 언제나 꼭 필요한 건 동의(consent)예요."라고 말한 에반젤린이다. "사생활에 관련된 동의뿐 아니라 영상 작품에 대한 동의도 마찬가지이고요. 유명 인사를 가지고 페이크 포르노를 만드는 건 동의를 부정하는 거죠. 잘못된 일이에요."
촬영 카메라 앞에 서야만 생계가 유지되는 사람들에게 개인적인 삶의 경계선을 침범당하는 건 문제일 수밖에 없다. 나는 15년 동안 일을 한 뒤 은퇴를 한, 전직 포르노 배우인 알리아 재닌(Alia Janine)에게 갤 가돗 영상을 보여줬다. "정말로 구역질 납니다."라고 그녀는 나에게 전화통화로 얘기를 해줬다. "몇몇 남성들이 여성을 오로지 조작할 수 있거나 자신들이 작정한대로 활용하는 대상으로만 여기고 있다는 점을 보여주는 거라고 생각합니다. 영화 속에 등장하는 포르노 배우, 특히 여성 배우에 대한 기본적인 존경 조차가 없다는 점도 보여주는 것 같기도 합니다."
나는 'deepfakes'에게 알고리듬을 통한 영상 제작에 있어 윤리적인 요소를 고려했는지 물어봤다. 이와 더불어서, 나는 알고리듬을 개발하는 과정에서 동의라는 개념이나, 리벤지 포르노, 그리고 협박 같은 요소가 떠올랐는지도 물었다.
"모든 기술들은 나쁜 용도로 쓰일 수가 있지만, 그렇다고 해서 그것을 멈출 수는 없잖아요."라고 말하면서 그는 이미 사망한 영화배우 폴 워커(Paul Walker)가 영화 [분노의 질주 7]에서 합성으로 다시 등장한 기술과 똑같다는 점을 강조했다. 실생활에서 모든 사람들이 그런 기술을 얼마나 쉽게 사용하는지가 아주 중요한 차이점입니다. 저는 평이한 사람들이 그런 머신러닝 기술을 습득하는 게 나쁘다고 보지 않습니다."
윤리적으로 엄청난 영향이 있다고 챔판다드가 말했다. 악의적인 목적으로 이뤄지는 기술 활용은 종종 막을 수가 없지만, 그대로 반박은 가능하다.
"공공의 장소에서 아주 커다란 목소리로 토론을 해야 합니다."라고 챔판다드는 말했다. "지금으로부터 약 몇 달 정도만 지나면, 위조된 점을 스스로 알아차리지 못할 정도로 영상과 사진에 합성을 가하는 게 얼마나 손쉬운 일이 되는지를 우리 모두가 지금 확실히 깨달아야 합니다. 물론, 영상 합성 제작에는 오랜 시간이 걸리기는 하지만, 영상 효과 분야의 전문가들과 여러 프로그램 덕택에 그 시간은 빨리 단축되고 있어요. 최신 컴퓨터 하드웨어만 있으면 프로그래머 한 명이 홀로 제작할 수 있을 겁니다."
무엇이 위조되었고, 무엇이 위조되지 않았는지, 그걸 판명해내는 경계선을 희미하게 만드는 사례가 나타나면 가짜 영상과 사진을 판별해내는 기술도 따라서 개발될 거라고 내다본 챔판다드는 온라인 위조나 학대가 등장할 시에 이런 현상을 적절하게 규제할 수 있는 인터넷 정책도 반드시 개선해야 한다고 말했다.
"어떤 면에서는 잘 된 일이지도 모릅니다."라고 말을 한 챔판다드는 이어서 "이런 영상을 다루기 위해서 사회를 얼른 변화시켜야 한다는 것에 대중의 이목이 집중될 수도 있으니까요."라고 덧붙여 말했다.
Correction: This story has been updated to clarify that deepfake's algorithm is similar to the research produced by Nvidia researchers, but that there's no evidence that it's an application of their work.