brunch

You can make anything
by writing

C.S.Lewis

by 김준형 형사 Nov 15. 2024

“자녀 납치했다”, 진짜처럼 속인다! 딥페이크 사기

AI기술 딥페이크, 딥보이스 사기 주의보!!


“자녀 납치했다”, 진짜처럼 속인다! 딥페이크, 딥보이스 사기 주의보!!


출처 - 경찰청 블로그

(경찰청 정책기자단 - 이다은 정책기자)

https://m.blog.naver.com/polinlove2/223660281281

_______



AI 기술의 발전이 가져온 편리함과 함께, 그 이면엔 예상치 못한 위험이 숨어 있습니다.

급속히 발달 중인 인공지능(AI) 기술의 범죄 악용을 우려하던 도중,


*10월 해외에서 실제 사례가 발생하였다고 합니다.

디지털 세상에서 스스로를 보호하기 위해

딥페이크 사기에 대해 알아두는 것도 중요하겠습니다.

관련 사례 자세히 살펴볼까요?


지난 10월경 외국에 거주하는 부모(외국인)는 불상의 외국 범죄조직으로부터

한국을 여행 중이던 딸이 방 안에 감금된 채 울면서 살려달라고 하는 영상과 함께

“당신 딸을 납치했다. 딸을 살리고 싶으면 합의금을 보내라.”라며 협박받았습니다.


부모는 이 사실을 영사관에 알렸고, 영사관에서는 한국 경찰에 신고했으며,

신속히 출동한 경찰은 요구조자의 안전을 확인하였습니다.

다행히 이 사건에서 실제 피해는 없었지만,


영상 속에 등장한 딸의 모습이 딥페이크 기술로 만들어진 가짜라는 사실이 밝혀지면서

인공지능(AI) 기술이 범죄 수단으로 악용될 수 있다는 심각성을 보여주었습니다.


여기서 잠깐! 구독자 여러분,

딥페이크(Deepfake)가 아닌 딥보이스(Deepvoice)에 대해 들어보셨을까요?


피싱범죄에 악용될 수 있는 인공지능(AI) 기술에는

딥보이스(Deepvoice)도 있습니다.


딥보이스(Deepvoice)란?

인공지능 기술을 통해 특정 인물의 목소리를 학습하여

그 사람처럼 말하는 가짜 음성을 생성하는 기술입니다.

이는 자녀의 목소리를 복제하여


부모에게 전화하여 마치 납치된 것처럼 살려달라고 하거나

급한 일이 있다며 돈을 빌려달라는 목소리를 들려주는 방식으로 범행에 이용할 수 있습니다.


즉, 부모와 자식 간의 가족관계라는 특수성을 이용하는 것입니다.


그렇다면 이러한 딥페이크 사기를 예방할 수 있는 방법은 무엇일까요?


▶SNS 등에 불특정 다수가 볼 수 있는 공개 설정의 게시글 지양

▶피해자들이 신고를 주저한다는 점을 노리기 때문에 납치든,

납치를 가장한 전화금융사기 사건이든 무조건 경찰에 신고

▶경찰에 직접 신고하기 곤란한 경우에는 주변 사람에게 경찰에 신고하도록

도움을 청하거나 문자로 112에 신고

▶의심스러운 요청은 반드시 사실 여부 확인


이처럼 AI 기술이 빠르게 발전하면서 딥페이크 사기 같은

새로운 범죄 유형이 늘고 있습니다.


우리 모두가 함께 경계하고 주의를 기울일 때, 안전한 사회를 만들 수 있습니다.

다음에 더 좋은 소식으로 찾아뵙겠습니다.

감사합니다!






_______


#도봉경찰서 #피싱범죄수사팀 #블로그 #시티즌코난 #보이스피싱 #메신저피싱 #스미싱 #예방 #팁페이크 #딥보이스 #사기

매거진의 이전글 경찰청 제공 '투자손실보상 피싱' 사건 사례
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari