인터넷은 몰락할 것인가?

AI를 활용한 거짓정보를 어떻게 걸러낼 것인가.

by 곰선생



3줄 요약

인공지능 콘텐츠는 빠르게 증가하고 있으며, 일부 추정에 따르면 온라인 게시물 절반 이상이 AI 생성 콘텐츠일 수 있습니다.

AI가 만들어내는 오류와 왜곡(환각)은 여전히 존재하며, 검증 없이 그대로 받아들이는 태도가 문제입니다.

결론적으로 환각 자체를 완전히 없애기는 어렵고, 핵심은 인간의 판단력과 비판적 사고입니다.


-----------------------------------------------------------------------------------------------------------


내년도 중점사업 중 하나로 고등학교 '인공지능수학' 과목을 런칭하기 위해 인공지능에 대해 체계적으로 학습하고 있습니다. 그동안 막연하게 알고 있던 용어들이 왜 생겼는지, 어떤 역사적 배경과 원리가 있는지 하나씩 배우는 과정은 굉장히 유익하고 즐거운 시간이었습니다. 특히 인공지능이 데이터를 학습하고 세상을 이해하는 방식은, 단순한 기술이 아니라 인간 지식의 구조와 연결된 매우 흥미로운 체계임을 깨닫게 해주었습니다.


그러나 인공지능이 데이터를 어떻게 학습하는지 알게 되자, 요즘 들어 걱정이 되는 여러 현상이 떠올랐습니다. 그 중 하나는 인터넷 상에서 생성되고 있는 콘텐츠의 압도적인 양입니다. 일부 보고에 따르면, 온라인에 새로 올라오는 글의 상당 부분이 이미 AI에 의해 생성되고 있으며, 향후 이 비중은 더욱 늘어날 가능성이 있다고 관측됩니다. 한 추정에서는 2025년 기준 온라인 게시물의 절반 이상이 AI 생성 콘텐츠일 수 있고, 내년에는 90%를 넘어설 수 있다는 전망도 있습니다.


이 수치는 분명 놀라우면서도 의심할 수밖에 없는 양입니다. 실제로 이와 관련된 계량적 연구들은 여전히 논쟁 중이며, 어떤 보고서는 인간과 AI 생성 콘텐츠가 비슷한 비율로 존재한다는 반대 결과도 내놓고 있습니다. 그럼에도 불구하고, 인터넷에서 AI가 만드는 콘텐츠의 비중이 빠르게 증가하고 있다는 현실은 부인할 수 없습니다.


인터넷에서는 이미 여러 형태의 가짜뉴스, 딥페이크 영상, 조작된 이미지들이 우후죽순 등장하고 있습니다. 이런 콘텐츠들은 외형상 그럴듯하지만 사실과 다르거나 의도적으로 왜곡된 경우가 많습니다. 그리고 문제는 많은 사람들이 이런 자료들을 진짜 정보로 받아들이고 있다는 점입니다.


우려되는 것은 이런 잘못된 정보들이 다시 AI의 학습 데이터로 사용되면서, 새로운 AI 생성 콘텐츠가 잘못된 정보를 근거로 사실처럼 생성되는 악순환이 벌어질 수 있다는 것입니다. 정보의 주체가 점점 사라지고 있다는 생각이 드는 이유입니다.


인터넷은 원래 사람과 사람이 서로 소통하기 위한 정보의 공간이었습니다. 누군가가 자신의 경험을 글로 정리하고, 그것을 다른 사람이 읽고 반응하며 토론하는 구조였지요. 그러나 지금은 이 고리의 많은 부분이 AI로 대체되고 있습니다. 사람이 만든 정보를 AI가 수집하고 요약한 뒤, 또 다른 AI가 그것을 참고해 콘텐츠를 만들어내는 구조가 반복됩니다. 정보의 생산자가 사람에서 AI로 바뀌어 가고 있으며, 그 결과 정보의 신뢰성과 다양성이 서서히 무너지고 있습니다.


인공지능이 제공하는 정보는 외형상 정확하고 매끄럽습니다. 이 때문에 많은 사람들이 "AI가 말했으니 맞겠지"라고 생각하기 쉽습니다. 하지만 실제로는 오류와 왜곡이 빈번한데, 이를 우리는 'AI 환각(hallucination)'이라고 부릅니다. AI 환각은 모델이 학습 데이터의 통계적 패턴에 기반해 그럴듯한 답을 만들어내지만, 실제로는 사실과 다른 결과를 생성하는 현상입니다.


문제는 이러한 오류를 다수의 사람들이 그대로 받아들이고 검증 없이 믿는다는 것입니다. 예전 브런치 글에서도 이 내용을 언급했었습니다. 우리는 정보를 접할 때 반드시 출처를 확인하고 비판적으로 읽는 습관을 가져야 합니다. 하지만 많은 경우 우리는 AI가 정리한 정보만으로 충분하다고 착각하며, 그 과정에서 스스로 생각하고 판단하는 힘을 잃어가고 있습니다. 이러한 태도는 SNS에서 남들의 성공 사례나 자극적인 이야기들을 보며 마음이 조급해지는 나 자신을 떠올리게 합니다. 노출되는 수많은 정보 중 진짜와 가짜를 구분하지 못하면, 우리는 마치 허상의 데이터 속에서 방향을 잃어가고 있는 것처럼 느껴집니다.


AI의 오류 문제를 극복하기 위한 대안들이 제안되고 있습니다. 예를 들어 주어진 정보만을 기반으로 작동하는 노트북LM 같은 방식은 외부 인터넷을 자유롭게 참조하지 않기 때문에, 출처가 확실한 정보에서만 결과를 생성할 수 있습니다. 그러나 이 방식은 특정 업무나 개인적인 작업에는 유용하지만, 범용적으로 쓰이기에는 아직 한계가 있습니다. 이 외에도 AI 생성 콘텐츠에 대한 라벨링, AI 스크래핑에 대한 제한 정책 등 다양한 기술적·정책적 대응이 시도되고 있습니다.


그럼에도 불구하고 결국 핵심은 기술 자체가 아니라 인간의 판단력입니다. AI가 만들어낸 결과를 그대로 믿는 것이 아니라, 우리가 스스로 판단할 수 있어야 합니다. 무엇이 거짓인지 알아보는 노력, 출처를 확인하고 다양한 관점을 비교하는 태도, 그리고 비판적 사고를 유지하려는 지속적인 훈련이 더 중요해지고 있습니다.


인공지능의 환각이 완전히 사라질 것이라고 단정하기는 어렵습니다. 기술 발전으로 오류의 비중은 낮아질 수 있지만, 인간이 만든 잘못된 데이터와 잘못된 정보가 계속 존재하는 한 AI는 언제든 그 오류를 재생산할 수 있습니다. 결국 중요한 것은 인간의 판단력과 비판적 사고입니다. 우리가 무엇을 믿을 것인지 스스로 판단하고, 정보를 단순히 소비하는 것이 아니라 능동적으로 검증하고 이해하려는 자세를 갖추어야 할 것입니다.





keyword
작가의 이전글근묵자흑