brunch

You can make anything
by writing

C.S.Lewis

by 주영재 Jan 24. 2018

인공지능이 만드는 '가짜뉴스 2.0' 시대 열리나

AI로 인한 가장 큰 손실은 보거나 듣는 것에 대한 완전한 신뢰의 파괴

 세계적 정보기술(IT) 시장조사기관인 가트너는 지난 10월 올해의 10대 IT 트렌드를 발표하며 “2022년쯤에는 선진 경제권에 속한 대부분의 사람들이 실제 정보보다 더 많은 허위 정보를 소비할 것”이라고 예상했다. 이 기관은 또한 2020년에는 인공지능이 만들어내는 ‘위조 현실’(counterfeit reality)이 그것을 탐지해내는 인공지능의 능력을 앞서면서 디지털에 대한 불신이 커질 것이라고 전망했다. 위조 현실은 실제 존재하지 않는 것을 존재하는 것처럼 보이게 하는 사진과 영상, 문서나 소리를 디지털 기술로 만들어낸 것이다. 가트너의 전망은 허무맹랑하지 않고 기술의 발전을 정확히 반영했다.

 '가짜뉴스 2.0'

■인공지능이 만들어낸 위조 현실

 인공지능 연구에 막대한 투자를 하고 있는 그래픽 칩 제조사 엔비디아는 최근 ‘ICLR2018’ 학회에 발표한 논문에서 인공지능으로 가짜 유명인사 사진을 빠르고 정교하게 만들 수 있는 기술을 선보였다. 

 엔비디아는 일종의 ‘술래잡기 게임’(cat-and-mouse game)을 인공지능에 도입해 이미지를 실제처럼 만들어냈다. 엔비디아 연구진은 ‘생성적 적대 신경망’(GAN·Generative Adversarial Network)으로 불리는 기술을 응용했다. 이는 상반되는 목적을 가진 두 개의 신경망(판별망·생성망)이 대결하면서 이미지를 생성·인식하는 기술이다. 

‘생성적 적대 신경망’의 개요. 본질적으로 한 시스템은 다른 시스템을 속이기 위해 최선을 다하고 다른 시스템은 속지 않기 위해 최선을 다한다.

 이 중 판별망(Discriminator)은 주어진 이미지가 실제인지, 거짓인지 판별하는 법을 학습한다. 실제와 거짓 이미지를 정확히 구분하는 것이 목표다. 생성망(Generator)은 판별망을 속여 실제와 구분이 가지 않을 정도의 이미지를 만들도록 학습한다. 실제에 가까운 이미지를 만드는 것이 목적이다. 본질적으로 한 시스템은 다른 시스템을 속이기 위해 최선을 다하고 다른 시스템은 속지 않기 위해 최선을 다한다.

 엔비디아는 두 신경망의 대결 끝에 만들어낸 수많은 이미지들을 논문에 공개했다. 사진 1에서 맨 오른쪽 아래 이미지는 두 신경망이 18일 동안 1000만 개의 이미지를 생성·수정하며 완성한 최종 인물의 모습이다. 연예인처럼 보이는 아름다운 얼굴이지만 실제 존재하지 않는다. 

사진1. 저해상도 이미지로 시작한 다음 점차 더 높은 해상도로 진행하는 과정에서 선명하고 섬세하며 매우 설득력있는 사진들이 만들어졌다. 출처 : 엔비디아

 엔비디아의 연구진은 말과 버스, 자전거와 식물 등 여러 사물의 사실적인 이미지를 만들어냈다. 자세히 보면 왜곡된 부분이 있지만 얼핏 봤을 때는 진짜 세계를 담은 듯하다. 현재 수준은 DSLR 카메라의 최고 해상도 수준의 이미지를 만들어낼 정도는 아니지만 스마트폰에서 볼 때는 확실히 실제처럼 보인다. 

엔비디아의 인공지능이 만들어낸 식물과 말, 소파, 버스, 교회 건물, 자전거 등 사물들의 모습들은 실제 세계를 담은 것처럼 보인다. 출처 : 엔비디아

 엔비디아의 또 다른 연구팀은 지난 10월 기계 학습을 이용해 여름에 찍은 거리 사진을 자동으로 변경해 눈 덮인 겨울 장면처럼 보이게 만들었다. 엔비디아의 연구진은 수개월 내로 상당히 크고 복잡한 이미지도 만들어낼 것으로 보고 있다. 엔비디아 연구원인 작코 레티넨은 지난 2일(현지시간) 뉴욕타임스에 “사진만이 아니라 컴퓨터 게임이나 영화에서 사용할 수 있는 3차원 이미지를 만들 수도 있을 것”이라고 밝혔다. 

판별망이 진짜라고 판단할 때까지 인공지능이 18일 동안 만들어낸 사람의 얼굴 모습. 출처:엔비디아

 현재도 사람이 포토샵으로 사진을 변형시키거나 컴퓨터 그래픽(CG)으로 영상을 만들지만 이런 작업에는 수시간에서 수일이 걸린다. 인공지능은 순식간에 더 현실적이고 완전히 새로운 이미지를 만들어낼 수 있다. 구글의 인공지능 연구소 딥마인드는 영상을 만들어내는 인공지능 기술을 연구하고 있고 어도비도 포토샵에 이런 종류의 기능을 집어넣기 위한 기계 학습 기술을 개발하고 있다. 


■신뢰의 완전한 파괴 ‘가짜 뉴스 2.0’ 시대 열려

 오늘날 인공지능은 신경망이라고 하는 복잡한 알고리즘을 사용해 이미지를 만든다. 많은 양의 데이터에서 패턴을 식별하는 방법이다. 신경망은 수천 개의 자동차 사진에서 일반적인 패턴을 식별해 자동차를 인지하는 법을 배운다. 이는 다른 방향으로도 작동할 수 있다. 자동차 패턴을 사용해 자동차 사진을 만드는 것이다. 그 발전된 형태인 GAN은 현재 구글 연구원인 이안 굿펠로가 2014년 몬트리올 대학에서 박사과정에 있을 때 고안한 것이다. GAN은 인공지능에서 가장 중요하고 널리 연구되는 개념 중 하나로 평가받는다. 

 지난 7월 미국 워싱턴 대학의 연구진은 버락 오바마 전 대통령의 립싱크 영상을 만들어내 주목을 끌었다. 음성에 맞게 입 모양을 바꾸도록 인공지능을 학습시켜 실제 없었던 영상을 만들었다. 도널드 트럼프의 이미지를 사용해 비슷한 기술을 개발하는 미·중의 스타트업들도 있다. 이들 기술이 만들어낸 영상은 아직 어색한 점이 보이지만 앞으로 GAN 기술이 발전하면 진짜와 구분하기가 어려워질 것이다. 구글의 인공지능 정책을 감독하고 현재는 인공지능 기금의 윤리 및 거버넌스 책임자인 팀 황은 “이 기술이 허위와 진실을 구분하는 것이 매우 어려워지는 시점까지 고도화될 것”이라고 우려했다. 

 가짜 뉴스에 대한 우려가 커지는 상황에서 진짜 같은 가공의 뉴스를 접할 가능성은 커졌다. 트럼프가 “북한에서 핵무기를 방금 터뜨렸다”라고 말하는 영상을 가짜로 만들어 배포하면 그 영향은 엄청날 수 있다. 1866년 독일 재상 비스마르크가 빌헬름 1세가 엠스에서 보낸 전보를 조작해 만든 ‘가짜 뉴스’가 보불전쟁을 일으켰듯이 가짜 뉴스는 전쟁으로 이어질 수 있다. 미국 언론 ‘와이어드’는 지난 8일 “인공지능이 인간의 목소리를 모방하는 ‘가짜 뉴스 2.0’의 시대가 도래했다”며 “인공지능으로 인한 가장 큰 손실은 당신이 보거나 듣는 것에 대한 신뢰의 완전한 파괴”라고 우려했다.

 홍수처럼 쏟아질 ‘위조품’을 판별하는 역할은 사람 손을 떠나 인공지능이 넘겨받게 될 것이다. 가트너의 최고 연구책임자인 다릴 플러머 부사장은 “위조 현실의 탐지는 위조 콘텐츠를 인간 검토자보다 더 빨리 식별하고 추적할 수 있는 인공지능이 수행하게 될 것이다”며 “불행하게도 인공지능을 사용해 위조 현실을 탐지하는 기술은 그것을 만들어내는 인공지능 기술에 뒤져있다”라고 말했다. 

 구글과 페이스북, 트위터 등 가짜 뉴스의 온상이 된 소셜미디어가 광고 수익 배분 제외, 페이지 삭제 등 가짜 뉴스 단속에 나섰지만 아직 인공지능으로 가짜 뉴스를 잡는 기술은 충분히 발전하지 않았다. 국내에서도 지난해 말 가짜 뉴스를 잡아내는 인공지능 개발 대회가 열렸지만 인공지능이 사진과 영상으로 만들어낼 더 정교한 가짜 뉴스에 대적할 수 있을지는 미지수다.  








작가의 이전글 미세먼지, 대기오염으로 몸살 앓는 세계
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari