brunch

You can make anything
by writing

C.S.Lewis

음성복제기술 '해외 AI 보이스피싱' 속출-예방법은?

정답: 이젠 내 목소리도 개인정보! 함부로 들려주지 마라!!!

음성복제기술 '해외 AI 보이스피싱' 속출

- 예방법은?

정답: 이젠 내 목소리도 개인정보! 함부로 들려주지 마라!!!
<영화 터미네이터2 한 장면>

위 장면은 영화 '터미네이터2'에서 존코너를 해하려는 목적으로 미래에서 온 액체 금속 살인병기 T-1000이 존코너의 양부모를 죽이고 그들 목소리를 음성복제기술로 흉내 내 존코너가 어디에 있는지 전화로 물어보려는 것을 아놀드 슈워제네거(터미네이터 T-800役)가 확인하는 장면이다. 아마도 다음 장면이 아놀드 슈워제네거가 에드워드 펄롱(존코너役)에게 "네 양부모는 이미 죽었다"라고 말하는 것으로 기억한다. 


구글에서 터미네이터2 개봉일을 검색하면 '1991년 7월 6일'이라고 뜨는데 지금으로부터 벌써 32년도 더 지난 영화의 다음 장면 대사까지 내가 기억하는 것은 바로 그날 조조 영화를 봤기 때문이다. 영화를 너무나 좋아했던 당시 개봉 첫 상영 시각 몇 시간 전부터 친구와 새벽에 지하철을 타고 종로 극장에 갔었는데, 그 시간에도 몇몇의 사람들이 매표소 앞에 줄을 서고 있어서 놀랐던 기억이 생생하다.

<워싱턴 포스트 2023년 3월 5일 자 기사>

위 기사는 현지시각 3월 5일 자 워싱턴 포스트 뉴스 헤드라인 제목을 캡처한 이미지다.

하단에 해당 영문 기사 제목을 구글 자동번역한 내용도 덧붙였다.

해당 뉴스 주요 내용 발췌 번역은 아래와 같다.

(캐나다) 73세의 카드(할머니)와 75세의 남편 그렉 그레이스(할아버지)는 서스캐처원 주 레지나에 있는 은행으로 달려가 일일 최대 금액인 3,000 캐나다달러(미화 2,207달러)를 인출했습니다. 그들은 더 많은 돈을 위해 두 번째 지점으로 서둘렀다. 그러나 은행 관리자는 그들을 그의 사무실로 불렀습니다. 그리고 그는 또 다른 고객도 비슷한 전화를 받았고 소름 끼치도록 정확한 목소리가 가짜라는 것을 알게 되었다고 말하였습니다. 전화를 건 남자는 아마도 그들의 손자가 아닐 것이라는 말이었습니다. 그제야 그들은 전화 속 상대방이 자신들을 속였다는 것을 깨달았습니다. 카드(할머니)는 워싱턴 포스트와의 인터뷰에서 "우리는 빨려 들어갔다"라고 말했다. "우리는 Brandon(손주)과 이야기하고 있다고 확신했습니다.

위 사건을 요약하자면, 캐나다에 사는 노부부가 자신의 손주 목소리로 지금 유치장에 있으니 보석금 좀 급히 보내달라는 전화에 속아 한화 약 300만 원 정도의 금액을 보이스피싱으로 사기당할 뻔한 것을 은행원의 대처로 겨우 모면했다는 내용이다. 

2021년 아랍에미리트(UAE)의 한 은행에서 대기업 임원의 전화를 받고 3500만 달러(당시 환율 약 420억 원)를 송금했다. 하지만 전화를 건 사람은 기업 임원이 아니라 '인공지능(AI) 딥보이스'로 임원의 목소리를 흉내 낸 전화사기단이었다. 평소 이 임원의 목소리를 잘 알았던 은행 관계자는 한 치의 의심도 없이 거액을 이체했다. 전화 한 통으로 순식간에 수백억 원이 털린 것이다.

위 글은 2021년에 UAE에서 있었던 사건을 머니투데이가 올해 2월 11일 특집기사 'MT리포트-신종범죄의 습격'(링크: https://news.mt.co.kr/mtview.php?no=2023020913433930492)로 다뤘던 내용 중 일부를 발췌한 글이다. 이미 2년 전에 해외에서는 음성복제기술을 활용한 사기 사건이 있었다. 


이를 예견한 나의 글(링크:https://brunch.co.kr/@2lab/46)이 해당 사건 2년 전(2019.05.03)에 '인공지능 음성 공격에 대비하라!'였다. 위 사건을 접했을 때 우려했던 일이 결국 발생했구나 했지만, 그럼에도 불구하고 해당 사건은 범인이 400억 원이 넘는 돈을 편취하기 위해 상당한 비용과 시간의 노력을 기울였으리라 생각했기에, 일반 시민들에게 해당 기술로 인한 피해 사례가 발생하기까지는 상당한 기간이 있을 것이고, 그 정도의 시간이면 정부가 적절한 대응책을 마련할 수 있지 않을까 하는 기대가 있었다.

캐나다 노부부의 손자 목소리를 흉내 낸 'AI보이스 사기 사건'을 보며
불길한 조짐이 아닐지...
32년 전에 영화적 상상이 이제는 현실화를 넘어 일상화될까 우려된다.


하지만 이제는 300만 원도 안 되는 돈을 편취하기 위해 노부부에게까지 음성복제기술-AI 딥보이스를 활용한다는 것이 놀라울 따름이다. 이는 다시 말해서 소액 사기에도 이용될 정도로 해당 기술에 대한 접근성이 좋아졌음을 방증하는 것으로 곧 얼마 지나지 않아 인공지능 딥보이스 기술을 활용한 AI 보이스피싱이 다수 발생할 수도 있음을 알리는 적신호가 아닐지 매우 우려되는 상황이다.


챗GPT 등장 이후 인공지능이 훨씬 더 가깝게 느껴졌다.

알파고를 필두로 언론에 종종 등장하던 인공지능기술에 대한 언급이 이제는 거의 매일 쏟아진다.


작년 6월 9일에 쓴 글(링크: https://brunch.co.kr/@2lab/204) 제목"딥페이크(Deepfake)/딥보이스(Deepvoice)"가 구글을 비롯해서 다음이나 네이버 포털에서 '딥보이스'를 검색하면 거의 첫 페이지에 노출된다. 그만큼 딥페이크와 딥보이스가 한 묶음으로 많은 이들에게 각인되고 있음을 느낀다.


새로운 기술에는 늘 이면에 어두운 그림자처럼 범죄에 악용될 가능성이 있다.

굳이 사례를 들지 않더라도 미디어 생산 유통과정에서부터 IT통신 네트워크 기술에 이르기까지 다양한 범죄의 도구로 이용되는 경우는 너무나도 많다.


범죄를 뿌리 뽑는 것은 불가능하지만,
그 범죄의 도구를 무력화시키는 것은 가능할 것이라 믿기에
 우리는 해당 노력을 게을리하지 말아야 한다.

녹취분석 20년 이상의 특수감정 경험과 4차 산업혁명의 핵심인 AI 인공지능 기술을 활용한 음성-복제 합성 등의 관심과 연구 노하우로, 필자가 당부하고자 하는 'AI 보이스피싱 사전 예방책'을 몇 가지 알리고자 한다.


보이스피싱 범죄의 가장 핵심 예방책은 피싱(phishing) 그 어원에 해답이 있다.

피싱(phishing)은 개인정보(Private data)와 낚시(Fishing)의 합성어로 탄생한 말이다.

즉 개인정보가 없이는 할 수 없는 범죄다.

원천적으로 개인정보 노출을 최소화시키는 것이 중요하지만,

사회생활을 하면서 개인정보 노출을 아예 하지 않을 방법은 없다.

또한 개인정보라는 범주가 너무나도 다양하기에 일반적인 신상 정보 노출에 관한 주의는 다들 잘 알고 있으리라 믿는다. 그래서 본 예방책은 음성복제기술을 활용한 AI 보이스피싱 범죄에 국한하여 설명토록 하겠다.


음성복제기술은 복제 대상 음성의 데이터가 없으면 불가하다.

예를 들어 철수의 목소리를 인공지능 기술로 생성해서 흉내 내려면 반드시 사전에 철수의 깨끗한 목소리가 최소 30초 이상 있어야 한다. 여기서 깨끗한 목소리라는 것은 어떠한 외부 잡음 없이 온전한 음성을 있는 그대로 녹음한 목소리를 말한다. 또한 30초 이상은 얼핏 생각하면 너무나도 짧은 분량이라고 생각하지만, 사실 쉼 없는 목소리 데이터로만 연속된 30초 분량은 우리가 생각하는 것처럼 마냥 짧지만은 않다. 최소한 수분이상의 대화에서 추출해야만 가능한 분량이다. 


특히, 목소리는 대화를 하지 않는 경우 혼자서 수 분 이상을 떠드는 경우는 없으므로, 

대화의 목소리에서 상대방 음성과 겹치지 않는 깨끗한 목소리로
끊김 없이 최소 30초 분량 이상의 데이터를 만들기는
생각보다 쉬운 일은 아니다.
한 가지 경우만 제외하고 말이다.

"바로 전화 통화!"


따라서 믿을 수 있는 지인을 제외한 전화 통화는 자제하라!


전화 목소리는 주변의 외부 소음과 잡음을 최소화시켜서 음성을 가장 잘 녹음할 수 있는 최적의 기회다.

상대방이 녹음하는지조차 알 수 없고, 상대방이 질문만 잘한다면 충분히 소기의 목적하는 분량의 음성을 확보할 수 있다. 여담이지만, 그렇다고 상대방 동의 없는 녹음을 막는 법을 만드는 것에는 반대한다. 이는 칼로 사람을 해할 수도 있다는 우려에 칼 사용을 금지하는 것과 같기 때문이다. 기술을 악용하는 사람들이 문제이지, 기술이 문제의 핵심은 아니기에, 노파심에 몇 자 덧붙였다.


보이스피싱 범죄자들이 기존의 보이스피싱 피해자의 목소리 데이터를 활용하여,
그 피해자의 가족과 지인들을 상대로 제2, 제3의
AI 보이스피싱 범죄를 저지를 가능성을 배제할 수 없기에,
더욱더 주의를 기울일 필요가 있다.


보이스피싱 범죄자들은 장시간 전화 통화를 하도록 유도하기에, 피해자 목소리를 상당 부분 확보할 가능성이 크다. 그렇다면 그 피해자의 가족, 지인에게 전화를 걸어 피해자인 척 음성복제기술을 활용한 방법으로 AI 보이스피싱 범죄를 추가로 저지를 가능성도 배제할 수 없다. 자칫하면 n차 피해가 발생할 수도 있다.

따라서 이에 대한 주의도 반드시 주변에 알릴 필요가 있다고 사료된다.


그 밖에 SNS나 유튜브 동영상을 통해 불필요하게 자신의 목소리가 불특정 다수에게 노출되지 않도록 하는 것도 중요한 예방법이 될 수 있을 것이다.


마지막으로, 모든 피해는 열 번 조심해도 단 한 번의 방심으로 발생함을 잊지 말고

늘 여러 피해 사례들에 대한 언론 기사나 정부 및 금융 기관 등의 주의 안내 알림을 꼼꼼하게 숙지하여, 경각심을 잃지 않도록 하는 것이 중요함을 거듭 강조하고 싶다.


최소한 이 글을 쓴 이후부터 만큼은 이런 유사 피해 사례가 발생되지 않기를 간절히 바라는 마음이다.

<끝>

매거진의 이전글 딥페이크(Deepfake)/딥보이스(Deepvoice)

작품 선택

키워드 선택 0 / 3 0

댓글여부

afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari