지극히 보통의 인간을 위한 AI 안내서
지금 이 글을 보고 있는 분들은 아마도 사진과 영상은 ‘사실’로 여기는 시대에서 자랐을 것입니다. 혀
최근 논란이 된 이 사진, 혹시 아시나요?
지난 10월 초 미국 남동부를 강타한 초대형 허리케인 '헐린'의 여파로 수백 명이 숨진 가운데, 홍수에 떠내려가는 보트 위에서 구명조끼를 입은 한 소녀가 강아지를 안은 채 울고 있는 사진이 확산됐습니다. 당시 유타주의 마이크 리 상원의원은 지난 3일 이 사진을 엑스에 공유하면서 "이 사진에 캡션을 달아주세요"라고 적었습니다. 바이든 정부의 재난 대응에 대해 비판한 것으로 해석됩니다. 그러나 며칠 뒤 이 사진은 AI로 생성된 것으로 드러났습니다.
이를 보도한 포브스는 "재난을 묘사하는 조작된 이미지는 구호 활동을 복잡하게 만들고, 위기 상황에서 대중의 신뢰를 떨어뜨린다"며 "또한 가짜 모금 활동에 기부하도록 사람들을 속이는 데 사용될 수 있다"고 지적했습니다.
전쟁을 멈췄던 사진의 힘 - 참혹한 진실
네이팜탄 소녀 사진을 기억하시나요?
이 사진 한 장은 언제 끝날지 알 수 없었던, 베트남전의 종전을 앞당기는 데 결정적인 역할을 했습니다.
‘전쟁의 참혹함’이라는 건조한 단어에 온전히 담을 수 없을 정도의 끔찍한 진실을 압축했기 때문입니다. 이 사진이 왜 이렇게 중요한지, 수십 년이 흘러도 왜 인류가 이 사진에 많은 가치를 두는지 굳이 설명하지 않아도 우리 모두는 고개를 끄덕입니다.
"AI 시대, 모든 것이 뒤집히는 세상"
AI가 가져온 긍정적인 측면으로는, 돈 쓰며 시간 쓰며 소위 '외주' 주던 것들을 혼자서도 해낼 수 있게 됐다는 것입니다. 저만해도 머릿속에만 있던 디자인만으로 다이어리를 세상에 내놓는 동안 참 많은 일을 겪고 많은 사람들과 인연을 맺게 됐었는데요, 불과 2년 전만 해도 다이어리 디자인부터 인쇄, 제본, 판매를 위한 상세페이지 제작까지 디자인이나 인쇄, 판매 과정을 모르면 전부 다 돈 주고 전문가 구해서 써야 하고, 행여 기분 상하게 하면 제대로 된 결과물이 안 나올까 봐 선물 보내고 눈치 보며 진행했던 일들이 타이핑만으로 끝나는 시대가 됐습니다.
특히, 이미지 생성형 AI는 찰나의 순간을 찍기 위해 온종일 대기하며 서 있는 게 아닌, 그 ‘찰나의 순간’을 내가 스스로 만들 수 있게 됐습니다.
달리 말하면, 이제 이 모든 것이 뒤집히는 세상이 왔습니다.
진짜 이미지 중에 가짜를 골라내는 게 아니라, 수많은 가짜 이미지 중에, 진짜를 찾아내기가 더 어려운 시대가 올지도 모릅니다. 어쩌면 사진에 대한 기본 가정이 ‘가짜’라는 것으로 바뀔지도 모르고요.
트럼프 대선 후보자는 많은 사람들이 모인 Harris 집회 사진이 AI가 생성한 것이라고 선동하기도 했습니다. 예전 같으면 혀를 끌끌 찼을 그 말에, 믿는 사람들이 등장했습니다. 이제는 이 같은 주장도 충분히 받아들여질 만한 시대이기 때문이죠.
팩트체크를 위해 기자들은 항상 보도 전에, “내가 취재한 게 틀릴 수도 있다, 제보자가 거짓말을 할 수도 있다”는 사실을 염두에 두고 취재합니다.
그렇다면 딥페이크 시대에, 이미지 진위여부는 어떻게 증명할 수 있을까요? 어떻게 증명해내야만 할까요?
"가짜라는 것보단, 누가, 무엇을,
누구와 공유하는지가 관건"
미국의 디지털 보안업체인 블랙버드 AI는 '누가, 무엇을, 누구와 공유하는지'에 주목합니다. 무엇이 진실이든 거짓이든 상관없이 그 정보가 어디에서 왔고 어떻게 퍼지는지가 더 중요하다는 것이죠.
블랙버드 AI는 소셜 미디어 게시물과 같은 저단계 기술에서의 잘못된 정보를 추적하는데, 진짜 이미지라도 맥락에서 벗어나 오해를 불러일으킬 경우 문제가 있다고 판단합니다. 생성형 AI 기술이 상황을 악화시킬 수 있지만, 기술 자체보다는 미디어에서 고의적이든 고의적이지 않든 사람들에게 오해를 불러일으키는 행위 자체는 완전히 새로운 문제는 아니라는 거죠,.
다만, 문. 제. 는 미디어 환경이 오해를 불러일으키기 너무나 좋다는 것입니다. 안 좋은 뉴스일수록, 자극적인 이미지일수록, 흥미로운 콘텐츠일수록 무서운 인터넷 속도를 타고 터치 하나면 쉽게 접속하는 소셜 네트워크에서 급속도로 퍼진다는 것입니다. 여기에 잘못된 정보를 확인 없이 계속 퍼 나르고 공유하고, 홍보하는 봇들까지 추가되면 상황은 훨씬 더 복잡해질 것입니다. 이제 설령 진실된 이미지라도 '가짜 이미지, 가짜 영상이 존재한다는 사실 자체'가 악의적인 씨앗을 뿌릴 수 있습니다. “곧 진짜와 합성된 가짜를 구분하는 것이 불가능해지는 상황이 올 것”이라고 말했다.
“가짜 사진, 가짜 영상으로부터
안전할 수 있는 장치”
불, 칼, 폭탄을 발명하고 발견한 사람은, 끔찍한 도구가 될 것을 예측하지 못했겠지만, 악행을 저지르는 사람은 여전히 있지만 그래도 악용하는 사람보단 순기능으로 쓰는 사람들이 더 많습니다. 법과 질서가 갖춰졌기에 가능한 일입니다.
AI로 예전엔 내가 못하던 것을 할 수 있고, 혼자 하던 것을 여러 명이 하는 것처럼 생산성을 낼 수 있다는 것은 분명합니다. 다만 창작이라는 거대 명분으로, 우리의 생명과 안전이 위협받아서는 안될 것입니다.
모두가 그토록 바라는 온전한 장밋빛 미래를 위해서 무엇이 필요한지 우리는 이미 알고 있습니다. 내 사진과 영상이 AI가 만든 것이 아닌, ‘증거’나 ‘메시지’로서 가치와 효력을 발휘하고 가짜뉴스, 가짜 사진으로부터 안전할 수 있는 장치’가 필요합니다.
전문가들은 “사회적 합의가 필요하다”고 주장하지만, 몇 년째 그 합의는 누가 어떻게 무엇을 위해 하는지부터 합의를 해야 할 텐데, 어떻게 돌아가고 있는 건지 알 길이 없습니다.
딥페이크 문제는 AI 열풍이 불던 때부터 논란이 돼왔습니다. 연예인들은 오래전부터 피해를 호소했지만, 묻혔습니다. 결국 다수의 미성년자들이 피해자가 되고, 가해자가 되고, 이른바 'IT 강국 대한민국'에서 수많은 2차, 3차 피해가 양산되고, 전 세계적으로 창피를 당하자 딥페이크 방지 법안 마련에 머리를 맞댑니다.
모든 기술 발전엔 이면이 있고 창과 방패의 싸움이 존재합니다. 모든 판이 급속도로 바뀌는 AI시대에서 미리 대비하지 않고 아무도 나서지 않고 지금처럼 서로 책임을 미루다간 글쎄요 .. 무엇을 상상하든 그 이상이 될 것만은 분명해 보입니다.