07
완벽한 거짓의 탄생
2024년 미국 대선 기간, 한 영상이 소셜미디어를 뜨겁게 달궜다. 표정은 자연스러웠고, 목소리에는 확신이 담겨 있었으며, 배경의 청중들도 환호했다.
문제는 그 연설이 실제로 일어나지 않았다는 것이다. 딥페이크 기술로 만들어진 합성 영상이었다. 그러나 이미 수백만 명이 그것을 보았고, 믿었으며, 공유했다. 팩트체크 기사가 나왔을 때는 이미 늦었다. 거짓은 진실보다 6배 빠르게 퍼졌고, 감정은 이성보다 먼저 작동했다.
같은 해 한국 총선에서도 비슷한 일이 벌어졌다. 립싱크는 완벽했고, 음성 톤도 본인과 구분이 불가능했다. 이 영상은 정정 보도가 나오기 전에 이미 수십만 명의 투표 의사에 영향을 미쳤다.
예전의 거짓은 어딘가 어설펐다. 포토샵의 경계선이 보였고, 합성 음성은 기계음이 섞였다. 하지만 지금의 거짓은 다르다. 너무나 정확하고, 세련되며, 인간적이다. AI는 더 이상 사실을 흉내 내는 수준이 아니다. '믿을 만한 거짓'을 생산한다.
'객관성'이라는 착각
우려스러운 것은 AI가 생성하는 기사의 '중립성'에 대한 착각이다.
독자들은 AI가 객관적일 것이라 믿는 경향이 있다. 기계는 편견이 없을 것이라는 생각 때문이다. 그러나 2014년 발표한 연구 이후 지속적으로 확인되듯, AI는 학습 데이터의 편향을 그대로 반영한다.
가상 시나리오, 알고리즘이 만든 확신
어느 날, 한 사용자가 페이스북에서 백신 관련 게시물을 클릭했다. 처음에는 단순한 호기심이었다. 그러나 그다음부터 그의 피드는 변했다. 백신 부작용 사례, 제약사에 대한 의혹, 대체 의학 정보가 끊임없이 나타났다. 알고리즘은 사용자가 '관심 있어할' 콘텐츠를 학습했고, 비슷한 내용을 계속 추천했다. 몇 달 후, 그는 확신했다. 백신은 위험하다.
연구들은 소셜 미디어 플랫폼의 알고리즘이 유사한 관점을 가진 사람들의 콘텐츠에 더 많이 노출되도록 하는 '에코 챔버'를 만든다고 지적한다.
유튜브도 마찬가지였다. 한 사용자가 기후변화 관련 영상을 몇 개 시청하자, 알고리즘은 점점 극단적인 콘텐츠를 추천했다. 처음에는 "기후변화는 과장되었다"는 영상이었고, 다음에는 "기후변화는 거짓이다", 결국에는 "기후변화는 세계 정부를 세우려는 음모"라는 내용까지 도달했다.
알고리즘은 각 사용자에게 맞춤화되어 있어, 기후 관련 잘못된 정보가 담긴 영상을 한 번 시청하면 다른 영상을 추천받을 가능성이 높아진다.
유튜브의 알고리즘은 사용자가 추천받는 영상의 약 70%를 결정하며, 사람들이 특정 콘텐츠를 시청하도록 유도하는 요인이다.
욕망을 학습하는 기계
AI는 무엇이 바이럴 되는지 안다. 어떤 제목이 클릭을 유도하고, 어떤 내러티브가 공유를 부르며, 어떤 감정이 댓글을 만드는지 학습했다.
신뢰받는 출처와 상관관계가 있는 의료 전문가, 학술 기관, 정부 기관을 언급했고, 연구를 증언 증거로 제시할 때 데이터 출처에 대한 세부 정보를 포함해 진정성을 구축했다.
AI가 생성한 허위 정보는 더 많은 인지적 키워드를 사용해 더 나은 추론을 달성할 수 있었고, 이는 신뢰성 확립에 기여할 수 있었다.
연구에 따르면, 거짓 정보는 트위터에서 진실보다 훨씬 빠르게 확산된다. 거짓 뉴스가 1,500명에게 도달하는 데 걸리는 시간은 진실보다 약 6배 빠르다. 거짓 뉴스는 진실보다 리트윗 될 가능성이 70% 더 높았고, 모든 정보 범주에서 진실보다 훨씬 더 멀리, 빠르게, 깊고, 광범위하게 확산되었다. 그 효과는 테러리즘, 자연재해, 과학, 도시 전설 또는 금융 정보에 관한 거짓 뉴스보다 정치 관련 거짓 뉴스에서 더 두드러졌다. 데이터는 "참신성 가설"을 뒷받침했다. 거짓 뉴스는 진실보다 더 참신했고, 사람들은 참신한 정보를 공유할 가능성이 더 높았다. 진실은 종종 복잡하고 덜 자극적이다. 거짓은 단순하고 감정적이다. AI는 이 공식을 완벽하게 구현한다.
믿는 인간의 책임
문제는 인간이 사실보다 감정을 먼저 믿는다는 것이다. 논리적으로 의심해야 할 정보도, 내가 듣고 싶은 이야기라면 쉽게 받아들인다. AI는 이 심리를 학습한다. "당신이 옳다"라고 말해주는 정보. 이것이 가장 효과적으로 퍼진다는 것을 데이터가 증명한다.
기술을 탓하기는 쉽다. 딥페이크를 규제하고, AI 뉴스를 금지하며, 알고리즘을 통제하자고 주장할 수 있다. 하지만 기술적 해결만으로는 부족하다. 근본적 문제는 기술이 아니라 인간이 믿는 방식에 있다.
연구에 따르면, 허위 뉴스 헤드라인을 공유한 사람들 중 약 50%는 부주의 때문이었고, 33%는 정확성에 대해 착각했으며, 약 16%만이 고의로 허위 뉴스를 공유했다.
불편한 진실보다 편안한 거짓을 선택하는 것은 인간의 본성이지만, 그것을 거부하는 것이 책임이다.
남은 질문
진실보다 설득력 있는 거짓이 늘어나는 세상에서, 우리는 무엇을 믿어야 할까?
답은 간단하지 않다. 하지만 분명한 것은 있다. 기술이 거짓을 만드는 속도보다, 인간이 진실을 지키려는 의지가 더 중요하다는 것이다.
AI는 완벽한 거짓을 만들 수 있다. 하지만 그것을 믿을지 말지 결정하는 것은 여전히 인간이다. 클릭하기 전에 멈추고, 공유하기 전에 확인하며, 확신하기 전에 의심하는 것. 이것이 AI 시대를 살아가는 시민의 윤리다.
거짓을 만드는 것은 기술이지만, 거짓을 퍼뜨리는 것은 인간이다. 우리가 검증 없이 공유하고, 의심 없이 믿으며, 확인 없이 분노할 때, AI의 거짓은 진실이 된다.
결국 질문은 이것이다. 우리는 진실을 지킬 의지가 있는가? 불편해도, 복잡해도, 내가 믿고 싶은 이야기가 아니어도, 사실을 받아들일 용기가 있는가?
AI가 거짓을 생산하는 동안, 인간은 여전히 진실을 선택해야 한다. 그 선택을 포기하는 순간, 우리는 단순히 알고리즘의 소비자가 될 뿐이다.
믿는다는 것은 이제 수동적 행위가 아니다. 그것은 능동적 책임이다. 기술을 탓하기 전에, 믿는 인간의 책임을 먼저 생각해야 한다. 그것이 AI 시대를 살아가는 우리의 윤리적 과제다.