팩트체크 중단, 혼돈의 시작인가
메타는 한때 온라인 신뢰와 안전의 선두주자로 평가받았다. 뉴스의 진위를 판별하는 팩트체킹 시스템을 도입했고, 허위정보가 확산되지 않도록 하는 알고리즘도 구축했다. 이러한 시스템은 막대한 자원과 전문성이 필요해 작은 기업들은 감히 상상조차 하기 어려운 수준이었다. 메타의 머신러닝 모델은 가짜뉴스를 90%까지 차단할 수 있었다고 한다.
그러나 이제 그 모든 것이 사라졌다.
"More speech, fewer mistakes (더 많은 표현, 더 적은 실수)"
메타의 정책 책임자는 공식적으로 팩트체킹 프로그램과 가짜뉴스 확산 억제 시스템을 중단한다고 선언했다. 내부 커뮤니티 정책도 개정되어 이제는 허위정보에 대한 패널티가 부과되지 않는다. 메타는 X의 "커뮤니티 노트"처럼 사용자들이 직접 게시물에 정보를 추가하는 방식으로 대체하겠다고 밝혔지만, 구체적인 실행 방안조차 공개하지 않았다. 즉, 새로운 대책이 마련되기도 전에 기존 방어체계부터 해체한 것이다.
그들의 논리는 이렇다. 가짜뉴스를 필터링하지 않는 것이 표현의 자유를 가장 잘 보호하는 길이라는 것이다. 고로, 허위정보도 표현의 일환이며, 그것이 사회적 혼란을 초래하더라도 그 관리에 대한 책임은 전적으로 플랫폼을 사용하는 사용자에게 있다는 입장이다.
불과 2020년만 해도 메타는 가짜뉴스 대응 성과를 자랑했다. 가짜뉴스 경고 라벨이 붙은 게시물의 95%는 사용자들이 해당 포스트를 클릭하지 않았으며, 코로나 관련 허위뉴스에는 단 한 달 동안 4천만 개 이상의 경고가 붙었다.
이제 메타의 플랫폼은 더 이상 안전하지 않다. 특히, 인스타그램과 Threads를 주로 사용하는 청소년들은 사실과 허위정보를 구분할 수 있는 보호 장치 없이 위험한 정보에 무방비로 노출될 가능성이 크다. 이 문제는 한국보다도 개발도상국에서 더 심각할 것이다. 페이스북 그 자체가 인터넷인 대다수의 국가에서는 가짜뉴스가 사실로 둔갑하는 일이 빈번해질 수밖에 없다.
더 나아가, 메타의 결정은 이미 실리콘밸리 온라인 신뢰와 안전 산업 전반에 영향을 미치고 있다. 표현의 자유라는 미명 아래 콘텐츠 조정을 최소화하는 흐름이 가속화된다면, 다른 플랫폼들도 유사한 결정을 내릴 가능성이 있다.
이제 메타에서는 "암을 개 구충제로 치료할 수 있다"는 허위 정보가 "암을 치료할 혁신적인 신약이 개발되었다"는 사실과 동일한 알고리즘의 혜택을 받는다. 생성형 AI로 조작된 재난 사진과 "미국에 핵폭탄이 떨어졌다"는 가짜 뉴스가 아무런 경고 없이 우리의 피드에 등장할 수 있다. 거짓과 진실이 같은 무대에 올라 같은 스포트라이트를 받게되며, 그 무대를 지켜보는 관객에게 모든 책임을 던져주었다. 디지털 리터러시에 취약한 사용자들, 앞서 말한 어린이와 청소년, 네트워크 접근이 제한적인 고령층 및 페이스북이나 인스타그램을 주요 정보원으로 삼는 전세계의 많은 사람들은 사실과 거짓을 분간하는 것이 더욱 더 어려워 질 것이다.
최근 DeepSeek과 같은 생성형 AI가 빠르게 발전하며 정보의 진위를 구분하기 어려운 시대가 이미 도래했다. 여기에 메타의 결정이 더해지면 사회적 혼란은 더욱 커질 것이다.
최소한의 방어선이 무너진 지금, 바로 지금이야말로 경각심을 가질 때다.