당신은 오늘 어떤 뉴스를 읽었는가? 아마도 그 기사는 당신이 이미 옳다고 믿는 무언가를 다시 한번 확인해 주었을 것이다. 당신이 즐겨 찾는 유튜브 채널은 당신이 공감하는 세계관을 반복해서 들려주고, 인스타그램의 피드는 당신이 좋아하는 것들로 가득 차 있다. 이것이 우연일까? 전혀 그렇지 않다. 이것은 설계된 결과다.
확증 편향(confirmation bias)은 인간의 가장 오래된 인지적 습관 중 하나다. 심리학자 피터 웨이슨(Peter Wason)은 1960년대 실험을 통해, 사람들이 자신의 가설을 검증하려 할 때 그것을 반증할 정보보다 지지할 정보를 압도적으로 더 많이 찾는다는 사실을 밝혔다. 우리는 자신이 믿고 싶은 것을 믿게 해주는 증거를 찾고, 불편한 증거는 무의식적으로 외면한다. 이것은 수십만 년의 진화가 빚어낸 생존 전략이었다. 빠른 판단, 에너지 절약, 부족 내 결속. 그런데 21세기 들어 이 오래된 편향은 새로운 동맹을 얻었다. 바로 알고리즘이다.
문제의 핵심을 이해하려면 먼저 추천 알고리즘이 무엇을 최적화하는지 알아야 한다. 넷플릭스, 유튜브, 페이스북, 틱톡—이 플랫폼들이 공통적으로 추구하는 지표는 '참여도(engagement)'다. 얼마나 오래 머무는가, 얼마나 많이 클릭하는가, 얼마나 자주 돌아오는가. 이 숫자들이 곧 광고 수익으로 직결되기 때문이다. 그리고 참여도를 극대화하는 가장 효율적인 방법은, 사용자가 이미 좋아하는 것을 계속해서 보여주는 것이다. 알고리즘은 당신을 연구한다. 당신이 무엇을 오래 보는지, 무엇에서 빨리 스크롤을 내리는지, 어떤 링크를 클릭하는지. 그 데이터를 수십억 개 쌓아 당신의 취향을 당신 자신보다 더 정교하게 파악한 뒤, 당신이 저항하기 어려운 콘텐츠를 연속으로 제공한다. 이것이 바로 필터 버블(filter bubble)의 탄생이다.
'필터 버블'이라는 개념을 처음 제시한 엘리 파리저(Eli Pariser)는 2011년 그의 저서에서 충격적인 실험 하나를 소개했다. 같은 시각, 서로 다른 정치 성향을 가진 두 사람이 동일하게 "이집트"를 구글에 검색했을 때, 완전히 다른 결과를 받았다. 진보 성향의 사용자에게는 혁명 관련 뉴스가, 보수 성향의 사용자에게는 관광 정보가 상위에 올라왔다. 같은 세계를 살면서도 알고리즘은 각자에게 전혀 다른 세계를 보여주고 있었다. 오늘날 이 현상은 2011년과는 비교도 할 수 없을 만큼 정교해졌다.
유튜브의 추천 알고리즘 연구로 유명한 기욤 샤슬로(Guillaume Chaslot)는 구글 엔지니어 출신으로, 내부자의 시각에서 알고리즘의 작동 방식을 고발했다. 그에 따르면 유튜브 알고리즘은 사용자를 점점 더 극단적인 콘텐츠 쪽으로 유도하는 경향이 있다. 온건한 정치 콘텐츠를 보기 시작하면 알고리즘은 더 자극적인 콘텐츠를 추천하고, 그것을 또 보면 더욱 극단적인 콘텐츠를 올린다. 왜냐하면 극단적인 콘텐츠일수록 감정적 반응을 강하게 일으키고, 강한 감정은 더 긴 시청 시간을 만들어내기 때문이다. 알고리즘은 사용자의 분노를 연료로 삼아 돌아간다.
이 구조가 사회에 미치는 영향은 단순히 개인의 정보 소비 습관에 그치지 않는다. 2016년 미국 대선과 브렉시트 국민투표를 전후로 연구자들이 집중적으로 분석한 결과, 소셜 미디어의 알고리즘이 정치적 양극화를 가속시켰다는 강력한 증거들이 축적되기 시작했다. 페이스북 내부 연구자들이 2021년 월스트리트저널을 통해 폭로한 자료에 따르면, 페이스북 자체 연구에서도 "우리의 알고리즘이 분열을 조장하는 콘텐츠를 선호한다"는 결론이 도출되었음에도 불구하고 회사는 수익 모델을 보호하기 위해 이를 외부에 공개하지 않았다. 플랫폼은 사회적 해악을 인식하면서도 알고리즘을 바꾸지 않았다.
한국도 예외가 아니다. 2019년과 2020년을 거치며 유튜브는 한국의 주요 정치 정보 소비 채널로 급부상했다. 한국언론진흥재단의 조사에 따르면, 50대 이상 연령층에서 유튜브를 통한 뉴스 소비 비율이 급격히 높아졌으며, 이 연령대를 대상으로 한 정치 유튜브 채널들은 극단적인 주장과 음모론을 반복 재생산하면서 알고리즘의 추천을 적극적으로 활용했다. 자극적인 제목, 분노를 유발하는 섬네일, 적대적 집단을 향한 감정적 공격—이 모든 것이 알고리즘이 '좋아하는' 콘텐츠의 특성이었다. 결과적으로 같은 사건을 두고 전혀 다른 서사를 믿는 집단들이 형성되었고, 이들 사이의 대화는 점점 불가능해졌다.
여기서 한 가지 중요한 질문을 던져야 한다. 알고리즘은 정말로 확증 편향을 '만들어내는' 것인가, 아니면 이미 존재하는 편향을 '강화'하는 것에 불과한가? 이 구분은 생각보다 훨씬 중요하다. 스탠퍼드 대학의 경제학자 매튜 젠츠코우(Matthew Gentzkow)와 그의 동료들은 소셜 미디어와 정치적 양극화의 관계를 분석한 논문에서, 미국에서 가장 빠르게 양극화된 연령층은 소셜 미디어를 가장 적게 사용하는 65세 이상이었다는 반직관적인 결과를 발표했다. 이것은 알고리즘의 책임을 경감시키는 것처럼 보일 수 있다. 그러나 이 연구는 동시에, 알고리즘이 없어도 인간은 이미 편향된 정보를 찾으려 하며 텔레비전과 라디오 같은 기존 매체도 이 과정에 기여했음을 의미한다. 알고리즘은 이 과정을 폐기하지 않는다. 오히려 비교할 수 없을 정도의 속도와 정밀도로 그것을 가속시킨다.
이 가속이 특히 위험한 이유는, 알고리즘이 제공하는 환경이 객관적이라는 착각을 심어주기 때문이다. 신문이나 방송 매체에는 편집자가 있고, 그 매체가 특정 관점을 가진다는 사실을 독자와 시청자가 어느 정도 인식한다. 그러나 알고리즘이 큐레이션한 피드는 마치 '세상에서 일어나는 일들'처럼 느껴진다. 페이스북이나 유튜브의 홈 화면을 보는 사람은 자신이 특정 편집 방침에 의해 선별된 콘텐츠를 소비하고 있다고 생각하지 않는다. 그저 '사람들이 관심을 갖는 것들', '내가 좋아할 만한 것들'을 보고 있다고 느낀다. 바로 이 투명성의 결여가 필터 버블을 더욱 강고하게 만든다. 어떤 편견이 작동하는지 인식하지 못할 때, 그 편견에서 벗어나는 것은 불가능에 가깝다.
설상가상으로, 알고리즘은 단순히 당신이 보고 싶은 것을 보여주는 데서 멈추지 않는다. 현대의 추천 시스템은 사용자의 '다음 행동'을 예측하도록 훈련되어 있다. 넷플릭스의 자동 재생 기능, 유튜브의 '다음으로 재생될 영상', 틱톡의 무한 스크롤—이 모든 기능은 당신이 의식적으로 '무엇을 볼지' 선택하는 순간을 최소화하도록 설계되어 있다. 선택의 순간에는 비판적 사고가 개입할 여지가 생기지만, 알고리즘은 그 여지를 차단한다. 당신이 생각하기 전에 다음 콘텐츠가 시작된다. 이것은 정보 소비를 능동적 행위에서 수동적 흡수로 전환시킨다. 그리고 수동적으로 흡수된 정보는 비판 없이 내면화되기 훨씬 쉽다.
이 모든 과정의 끝에서 우리가 마주하게 되는 것은 단순히 '잘못된 정보'의 문제가 아니다. 그것은 공유된 현실(shared reality)의 붕괴다. 민주주의는 공론장(public sphere)을 전제로 한다. 서로 다른 의견을 가진 시민들이 동일한 사실 위에서 논쟁을 벌이고, 그 논쟁을 통해 집단적 결정을 내리는 것—이것이 민주주의의 이상이다. 그런데 알고리즘이 만들어낸 세계에서, 사람들은 서로 다른 사실을 믿는다. 단지 의견이 다른 것이 아니라, 기본적인 사건과 현상에 대한 인식 자체가 갈라진다. 이 상황에서 논쟁은 불가능하다. 논쟁하려면 먼저 논쟁의 출발점이 같아야 하는데, 알고리즘은 각자에게 전혀 다른 출발점을 제공하기 때문이다.
그렇다면 어떻게 해야 하는가. 해결책은 단순하지 않다. 알고리즘을 당장 없애는 것은 현실적이지 않다. 하루에도 수십억 개씩 생산되는 콘텐츠의 홍수 속에서 알고리즘 없이 정보를 소비하는 것은 불가능에 가깝다. 그러나 몇 가지 방향은 분명히 제시할 수 있다. 우선 플랫폼들은 '참여도'만을 최적화 지표로 삼는 것을 멈춰야 한다. 정보의 다양성, 출처의 신뢰도, 다른 관점의 노출 빈도 같은 지표들도 알고리즘의 목적 함수에 포함되어야 한다. 유럽연합은 2022년 디지털서비스법(DSA)을 통해 대형 플랫폼들에게 알고리즘의 투명성을 요구하고 사용자가 추천 알고리즘을 끌 수 있는 선택권을 의무화했다. 이것은 옳은 방향이다.
그러나 제도적 해결만으로는 충분하지 않다. 개인 차원에서도 의식적인 노력이 필요하다. 자신이 소비하는 정보의 출처를 의식적으로 다양화하고, 자신의 의견과 반대되는 주장을 정기적으로 읽으려는 습관이 필요하다. 불편한 정보를 마주할 때 느끼는 그 저항감—그것이 바로 알고리즘이 당신에게 한 일의 증거다. 그 저항감을 무시하고 끝까지 읽는 것, 그것이 작지만 결정적인 저항이다.
우리는 지금 인류 역사상 가장 많은 정보에 접근할 수 있는 시대에 살고 있다. 그러나 역설적으로, 우리는 점점 더 좁아지는 정보의 우물 안에서 살고 있다. 확증 편향은 언제나 우리 안에 있었다. 그러나 알고리즘은 그 편향에 무한한 연료를 공급하고, 우물의 벽을 더 높이 쌓는다. 스스로 그 우물 밖을 보려 하지 않는 한, 우리는 영원히 자신이 이미 알고 있다고 생각하는 것만을 재확인하며 살아가게 될 것이다. 그리고 그것이 진실이라고 믿으면서.
알고리즘은 당신의 적이 아니다. 그러나 당신의 친구도 아니다. 알고리즘은 당신의 욕망을 먹고 자라는 거울이다. 그 거울이 보여주는 것이 세상의 전부가 아님을 기억하는 것—그것이 오늘날 정보 사회를 살아가는 우리 모두에게 요구되는 최소한의 지적 각성이다.
(이미지 출처 https://ko.wikipedia.org/wiki/%ED%99%95%EC%A6%9D_%ED%8E%B8%ED%96%A5)