brunch

유튜브 알고리즘은 AI 컨텐츠의 차단을 시작했다

무작위적 ai 컨텐츠의 차단을 통한 정보 채널의 정화 움직임

by JINOC

며칠 전 유튜브 알고리즘이 조정된다는 뉴스를 봤다.
내용인즉, AI로 만든 이미지나 정보 콘텐츠의 노출을 제한하겠다는 조치다.
표면적으로는 ‘AI 콘텐츠 과잉을 조절한다’는 취지지만, 그 속엔 훨씬 더 복잡한 고민이 들어 있다.

우리는 지금, ‘정보’의 정체를 다시 묻게 되는 시대에 들어섰다.
누가 만들었는가? 어떤 근거로 만들어졌는가? 그 내용은 진짜인가?
이런 질문들이 이제는 단순한 의심이 아니라 생존을 위한 필수 판단 기준이 되었다.

인터넷은 ‘진짜 같은 가짜’로 가득하다
AI는 정보를 직접 판단하지 않는다.
인터넷상에 이미 존재하는 데이터를 학습하고, 그걸 바탕으로 새로운 결과물을 만들어낸다.
문제는, 그 원천이 된 인터넷 자체에 이미 가짜가 섞여 있다는 것이다.

AI 가 생성해 내는 무작위적 뉴스


잘 알려진 예가 있다.
AI에게 “세계에서 가장 영향력 있는 의사를 추천해 달라”라고 물었더니, 실존하지 않는 인물의 이름을 근거 있는 문장과 함께 보여줬다.
왜? 그 이름이 인터넷 어딘가의 포럼 글에 있었기 때문이다.
AI는 그 글이 농담인지, 가짜인지 구분하지 않는다.
단지 “많이 인용된 정보”로 인식하고, 결과에 반영할 뿐이다.

그럴듯한 문장. 정제된 톤. 데이터가 있는 것처럼 보이는 숫자들.
그러나 그 본질은 허상이다.
그럴싸하게 포장된 ‘AI 뉴스’가 진짜 뉴스처럼 읽히는 시대.

지금 우리가 겪는 혼란은 여기서 시작된다.
알고리즘은 우리가 보고 싶은 것만 보여준다
유튜브나 인스타그램, 틱톡 같은 플랫폼들은 기본적으로 사용자의 관심사 기반 알고리즘으로 돌아간다.
이 알고리즘은 ‘사실’보다는 ‘관심’을 중심에 둔다.

img.webp?credential=yqXZFxpELC7KVnFOS48ylbz2pIh7yKj8&expires=1753973999&allow_ip=&allow_referer=&signature=4zL1H33wwobvBGabO7hme0tM%2BTk%3D AI가 생성해내는 가짜뉴스 이미지


당신이 좋아할 만한 것
당신이 오래 머무를 만한 것
당신이 클릭할 가능성이 높은 것
그게 사실인지 여부는 중요하지 않다.

"흥미로운 가짜"가 "지루한 진실"보다 더 많이 노출된다.

결국 우리는 점점 편향된 정보만 소비하게 되고, 그것이 반복되면
“나와 같은 생각을 하는 사람들이 많다”는 착각에 빠진다.
이게 바로 **에코챔버(Echo Chamber)**다.

에코챔버 현상: 거짓이 진실처럼 울리는 방
‘에코챔버’란 내가 이미 믿고 있는 정보만 반복적으로 듣게 되는 현상이다.
AI와 알고리즘이 결합되면서 이 현상은 전례 없이 강화되고 있다.

img.jpg?credential=yqXZFxpELC7KVnFOS48ylbz2pIh7yKj8&expires=1753973999&allow_ip=&allow_referer=&signature=R2FlnLylsVrcJg%2BP0F3qZlwIJ%2Bw%3D 가짜 뉴스와 진짜 뉴스의 대결


예를 들어보자.
코로나19 백신에 대한 음모론을 한 번 검색하면, 이후에는 비슷한 성격의 영상과 글이 계속해서 추천된다.
그렇게 한두 개만 보다 보면, 피드는 순식간에 '과학적 근거 없는 주장'으로 도배된다.
그리고 사람들은 이렇게 믿는다.
“이 정도로 많이 나오는 걸 보면, 뭔가 있는 거 아니야?”

결국은 **'많이 보이면 진짜처럼 보이는 착시'**에 빠지게 된다.
AI가 정보의 증폭자이자 왜곡자로 작동하는 메커니즘이 이 지점에서 드러난다.

우리는 지금, 검증되지 않은 정보에 둘러싸인 채 살고 있다
문제는 이게 단순히 개인의 판단 문제로 끝나지 않는다는 데 있다.
이러한 정보 구조는 사회 전체의 판단력을 흐리게 만들고, 집단적 착각을 유도한다.

특정 정치인에 대한 왜곡된 이미지
과학에 대한 불신
음모론적 세계관의 대중화
특정 집단에 대한 혐오와 배제

이 모든 것들이 ‘AI가 만든 가짜 정보’와 ‘그것을 반복 확산시키는 알고리즘’에 의해 증폭된다.
AI는 사실을 판단하지 않는다.
그러나 사람들은 그 결과물을 ‘진실’이라 믿는다.

이 간극이 지금 우리가 직면한 가장 큰 위기다.
그럼 우리는 무엇을 해야 하는가
이제 우리 모두는 ‘단순한 정보 소비자’가 아닌, 능동적인 정보 검증자가 되어야 한다.
몇 가지 실질적인 행동이 필요하다.

img.jpg?credential=yqXZFxpELC7KVnFOS48ylbz2pIh7yKj8&expires=1753973999&allow_ip=&allow_referer=&signature=T0hgE1mg0PJ7RItOxis3IVgFrLA%3D 고대 신비주의 문서

출처 확인
AI가 만든 콘텐츠라면 반드시 원출처와 사실 여부를 스스로 확인해야 한다.
“어디서 났는가?”는 더 이상 사소한 질문이 아니다.
AI 생성 콘텐츠 표시 의무화
플랫폼 차원에서 AI 생성 콘텐츠임을 명확히 표시하도록 법제화할 필요가 있다.
유튜브, 인스타그램, 틱톡 모두에게 해당된다.
알고리즘 개방과 설명 책임
사용자에게 어떤 기준으로 정보가 추천되는지 투명하게 공개해야 한다.
우리는 ‘무엇을 선택한 것인지’를 알 권리가 있다.
비판적 사고의 일상화
아무리 그럴듯해 보여도, 정보는 의심에서 시작하는 게 건강하다.
지금은 믿는 것이 아니라, 확인하는 시대다.

정보는 무기다. 우리는 지금, 무방비 상태다
정보는 중립적이지 않다.
누군가가 만든다. 누군가가 선택한다. 그리고 누군가가 믿는다.
그 과정에서 진실이 뒤틀릴 수 있다는 사실을 인정해야 한다.

AI와 알고리즘은 우리에게 편리함을 줬지만, 동시에 진실과 거짓 사이의 경계선을 흐리게 만들었다.
이제는 기술의 발달만큼, 정보의 윤리와 책임도 같이 고민해야 할 때다.

지금 우리가 믿고 있는 건
진짜 정보인가? 아니면 단지 반복된 가짜일 뿐인가?

이 질문에 ‘나는 괜찮다’고 말할 수 있는 사람은 더 이상 많지 않다.

keyword
토요일 연재
이전 10화골목 식당과 조직 생활을 통해 본 가스라이팅