brunch

You can make anything
by writing

C.S.Lewis

by 오종민 Dec 21. 2023

가짜가 더 진짜같은 딥페이크 피싱

얼마 전 방송이 끝난 ‘힘센 여자 강남순’이라는 드라마가 있다. 정보석이라는 배우의 딸에게서 전화가 걸려왔다. “아빠, 나 교통사고가 나서 경찰서에 왔어, 합의금으로 오천만 원이 필요해.” 수화기 너머로 들리는 목소리는 영락없는 딸의 목소리다. 당연히 딸이라고 생각한 정보석은 깜짝 놀라며 돈을 부쳐주려 한다. 그때, 옆에 있던 배우 김해숙이 “요즘 보이스피싱이 유행하던데 딸이 아니면 어떡하냐고 영상통화 해보세요.”라고 말했다. 정보석은 그럴 수도 있겠다 싶어 딸에게 “어, 00야 아빠랑 영상 통화하자.”라고 했다. 딸은 알겠다고 하며 영상통화를 걸어왔다. 화면 속에 다급한 모습의 딸의 얼굴이 나오며 정보석에게 돈을 요구했다. 딸의 얼굴을 확인한 정보석은 다급히 오천만 원을 송금했다. 그런데, 나중에 알고 보니 진짜 보이스피싱이었다. 어떻게 된 일일까?      


바로 딥페이크라는 기술 때문이다. 딥페이크(deepfake)란 인공지능을 기반으로 활용한 인간 이미지 합성 기술이다. 기존에 있던 인물의 얼굴이나, 특정한 부위를 영화의 CG처리처럼 합성한 영상편집물을 총칭한다. 피싱 이전 딥페이크 기술은 대체적으로 두 가지 정도 용도로 사용되었었다. 첫 번째는 유명 정치인의 얼굴을 합성하여 상대방 후보를 비난하거나 엉뚱한 소리를 하는 가짜뉴스를 만드는 데 쓰였다. 사실이 어떻든 사람들은 이슈를 좋아한다. 순식간에 그 정치인의 이미지는 깎일 것이고 회복하는데 상당한 시간이 걸리게 된다. 두 번째로는 여성 연예인들의 얼굴을 합성하여 포르노 영상을 유포하는 데 쓰였다. 이것은 그 연예인이 피해를 볼 뿐 아니라 영상을 유포하는 이들까지도 처벌받을 수 있는 범죄행위를 유발한다.      


이런 딥페이크 기술이 보이스피싱에 이용되기 시작했다. 일전에 쓴 글에서 AI 기술을 이용해 자녀의 목소리를 똑같이 복제해 피싱에 이용된다는 언급을 한 적이 있다. 그 기술과 딥페이크 기술을 함께 사용하여 실제 지인의 얼굴과 목소리가 그대로 보이는 것이다. 만약, 여러분의 자녀 또는 부모님에게 영상통화가 걸려온다면? 그런데 실제 그들의 얼굴과 목소리라면? 속아 넘어가지 않을 자신이 있을까? 대부분 깜짝 놀라 그들의 요구대로 돈을 부칠 것이다.     


강의 중 유명 정치인 실제 사진과 딥페이크를 이용하여 만든 가짜 사진을 보여주며 누가 진짜인지 물었다. 결과가 어땠을까? 놀랍게도 가짜를 진짜라고 여기는 이들이 더 많았다. 그만큼 무서운 기술이다.    

  

그렇다면 점점 정교해지는 가짜 영상을 구분하는 방법에는 무엇이 있을까? 딥페이크 기술이 적용된 영상은 보통 눈이나 코, 입의 움직임이 자연스럽지 않은 경우가 많다. 특히 눈 깜빡임과 주위의 그림자, 눈동자의 빛 반사, 피부 표면(질감, 털의 유무) 등을 주목하여 이상 유무를 확인해 볼 수 있다. 하지만, 정신없는 와중에 그런 것을 생각할 여유는 없을 것이다. 가장 좋은 방법은 112신고를 하는 것이다. 실제 납치사건의 경우 바로 신고하면 살아날 확률이 90%가 넘기 때문이다. 두 번째로는 전화를 끊거나 끊기 어려운 상황이라면 주변 사람들에게 도움을 청해 가족에게 연락을 해보는 것이다.

     

침착할 수 없다는 것을 안다. 하지만, 침착해야 한다. 그것이 실제 납치 상황에서도 가족 또는 지인을 살리는 길이다.

매거진의 이전글 인공지능(AI) 보이스피싱
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari