오늘 당신이 읽은 기사 중 몇 편이 사람이 쓴 것인지 아는가. 모른다면, 그것이 바로 지금 한국 미디어 생태계가 처한 현실이다.
2024년 12월, 한국신문협회·방송협회·기자협회 등 6개 언론 단체가 공동으로 생성형 AI활용 준칙을 발표했다. AI는 인간의 보조 수단에 그쳐야 하고, AI로 생성된 콘텐츠는 독자에게 반드시 표시해야 한다고 명시했다. 선언문은 충실했다. 그리고 조용히 서랍 속으로 들어갔다.
지금 포털을 채우는 콘텐츠 생산 속도는 어떤 인간 기자도 따라갈 수 없다. AI가 기사를 쏟아내고, 알고리즘이 그것을 증폭시킨다. 이 과정에서 독자는 자신이 믿고 싶은 것만 반복해서 확인하는 루프에 갇힌다. 필터버블은 확증편향으로 굳는다. 여기까지는 이미 알려진 이야기다.
새로운 문제는 다른 곳에 있다. 이제 딥페이크를 딥페이크로 알아보는 것이 점점 불가능해지고 있다. 조작된 영상이 현실처럼 보이고, AI가 쓴 기사가 기자가 쓴 것처럼 읽힌다. 출처와 메타데이터는 숨겨져 있거나 제한적이다. 독자는 무방비 상태다. 그런데도 준칙이 요구한 AI 생성 콘텐츠 라벨링은 대부분의 뉴스룸에서 사실상 사문화돼 있다.
AI 리터러시 논의도 반쪽짜리다. 기술을 어떻게 잘 활용할 것인가에만 초점이 맞춰진 나머지, AI가 초래하는 신뢰 붕괴와 정보 갈등에 대한 균형 잡힌 시각을 잃었다. 가능성만 가르치고 충돌 지점을 외면하는 교육은, 리터러시가 아니라 홍보다.
준칙을 만든 것으로 책임이 끝나지 않는다. 현장에서 작동하지 않는 규범은 규범이 아니다. 지금 우리가 물어야 할 질문은 하나다. 우리는 아직 진실을 알아볼 수 있는가.
-어느 언론학 박사의 글-