윤석열의 탄생: 통과 무사유가 만든 결과

제4부 무사유의 전염과 시민의 붕괴

by 한시을

24장. 알고리즘이 시민의 사고를 대체한다


2024년 3분기, 넷플릭스의 글로벌 유료 구독자는 2억 8,272만 명에 달했다.¹ 이들이 시청하는 콘텐츠의 80% 이상은 추천 시스템을 통해 발견된다.² 2억 명 이상의 사람들이 "무엇을 볼지"를 알고리즘에게 묻는다.

한국인의 84.9%가 유튜브를 사용한다.³ 매일 55분씩.⁴ 알고리즘이 추천하는 영상을 본다. 클릭률, 시청시간, 만족도를 분석해 "당신이 좋아할 영상"을 찾아준다.⁵

네이버는 6시간마다 '공감 많은 뉴스'를 갱신한다.⁶ 아마존은 "함께 구매한 상품"을 추천한다. 인스타그램은 "관심 있을 만한 게시물"을 보여준다.

무엇을 볼지, 무엇을 읽을지, 무엇을 살지. 알고리즘이 제시하는 선택지 중에서 고른다.

이것을 '선택'이라고 부른다.


1. 사고의 외주화

알고리즘에게 위임한 판단

넷플릭스를 켠다. 알고리즘이 이미 답을 준비해 놓았다. 네이버를 켠다. 실시간 검색어가 "중요한 뉴스"를 보여준다. 쿠팡을 켠다. "함께 구매한 상품" 목록이 결정을 도와준다.

심리학자들은 이것을 '인지 외주화(Cognitive Offloading)'라고 부른다.⁷ 판단을 외부 시스템에 맡기는 것. 머리가 아니라 손가락으로 결정하는 것.

편리하다. 시간이 절약된다. 하지만 하나의 능력이 사라진다. 생각하는 능력.

넷플릭스 알고리즘의 제품 혁신 부사장 Todd Yellin은 이렇게 말했다.

"우리가 그 프로필을 통해 보는 것은 다음과 같은 종류의 데이터입니다 – 사람들이 시청하는 것, 그 다음에 시청하는 것, 그 전에 시청한 것, 1년 전에 시청한 것, 최근에 시청한 것 그리고 하루 중 어느 시간대에 시청하는지입니다."⁸

넷플릭스는 당신이 본 것, 본 순서, 본 시간을 안다. 당신이 어디서 멈췄는지, 얼마나 빨리 봤는지, 다시 봤는지 안다. 그리고 당신에게 "다음 영상"을 제시한다.

유튜브는 더 정교하다. 2016년 발표된 논문에 따르면, 유튜브는 Deep Neural Network를 사용해 "이 사용자가 다음에 볼 영상"을 예측한다.⁹ 당신의 과거 시청 데이터를 분석하고, 당신과 비슷한 사람들이 본 영상을 찾고, 당신이 볼 가능성이 가장 높은 영상을 찾아낸다.

그리고 사람들은 클릭한다. 생각하지 않아도 되니까. 알고리즘이 이미 "당신이 좋아할 것"을 찾아줬으니까.

"무엇을 볼지" 고민하는 시간: 0초. "왜 이것을 봐야 하는지" 생각하는 시간: 0초. 그냥 본다. 알고리즘이 추천했으니까.


2. 필터 버블: 갇힌 세계

같은 생각만 반복된다

2011년, 엘리 파리저(Eli Pariser)는 『생각 조종자들(The Filter Bubble)』을 출판했다.¹⁰ 그는 알고리즘이 만드는 '거품(bubble)' 속에 우리가 갇힌다고 경고했다.

알고리즘은 당신이 '좋아할' 정보만 보여준다. 당신이 '싫어할' 정보는 필터링한다. 그 결과, 당신은 자신의 생각만 반복해서 보게 된다.

파리저는 자신의 페이스북 피드에서 보수적 성향의 게시글이 사라진 것을 발견했다. 페이스북이 그의 사용 기록을 분석했고, 그가 진보적 성향이라고 판단했고, 보수 성향 게시글을 필터링했기 때문이다.

그는 이렇게 말했다. "알고리즘이 제대로 작동하는가의 문제는 차치하더라도, 필터버블은 한정된 정보만을 제공하기 때문에 반대 성향을 가진 사람들의 글이나 새로운 정보, 평소에 보지 않던 분야의 뉴스 등을 접할 기회를 아예 박탈당한다."¹¹

연세대학교 정보대학원의 연구(2020)는 이것을 실증했다.¹² 연구자들은 보수 성향 유튜브 계정과 진보 성향 유튜브 계정을 개설했다. 그리고 6일 동안 각각의 성향에 맞는 영상을 시청했다.

보수 계정에는 보수 성향 영상이 점점 더 많이 추천되었다. 진보 계정에는 진보 성향 영상이 점점 더 많이 추천되었다. 알고리즘은 당신의 생각을 강화한다. 다른 관점은 보여주지 않는다.

에코 챔버: 반향실 효과

필터 버블과 함께 자주 언급되는 개념이 '에코 챔버(Echo Chamber)'다.¹³ 반향실. 같은 소리가 메아리처럼 울려 퍼지는 공간.

필터 버블이 알고리즘이 만든 거품이라면, 에코 챔버는 같은 생각을 가진 사람들끼리 모여 서로의 생각을 강화하는 공간이다.

유튜브에서 "윤석열 탄핵"을 검색하면 탄핵 찬성 영상만 나온다. "윤석열 쿠데타 음모론"을 검색하면 음모론 비판 영상만 나온다. 같은 생각, 같은 목소리, 같은 주장. 그리고 당신은 확신한다. "내 생각이 맞구나. 모두가 같은 생각을 하고 있네."

하지만 실제로는 알고리즘이 당신과 같은 생각을 가진 사람들의 목소리만 보여준 것이다.

엠브레인 트렌드모니터의 2023년 조사에 따르면, 한국 사회의 정치적 이슈에 대한 관심도는 계속 감소하고 있다.¹⁴ 2020년 68.1%, 2021년 64.0%, 2022년 56.6%. 특정 정당을 지지하는 비율도 2021년 44.4%에서 2022년 36.5%로 줄었다.¹⁵

정치에 관심이 없어진 것이 아니다. 알고리즘이 "내 생각과 다른" 정보를 차단하면서, 정치적 판단의 기회 자체가 사라진 것이다.


3. 판단 능력의 퇴화

15초 영상, 0초 사고

틱톡. 15초짜리 짧은 영상. 다음 영상으로 넘어가는 데 걸리는 시간: 1초. 하루 평균 사용 시간: 95분.¹⁶ 95분 동안 380개의 영상을 본다. 영상 하나당 평균 15초.

생각할 시간: 0초.

유튜브 쇼츠, 인스타그램 릴스, 네이버 클립도 같다. 짧은 영상. 빠른 전환. 끝없는 스크롤. 뇌는 자극에 반응만 하면 된다. 좋아요를 누르면 된다. 다음 영상을 보면 된다.

심리학자들은 이것을 '주의력 단편화(Attention Fragmentation)'라고 부른다.¹⁷ 주의력이 여러 조각으로 나뉘어 하나의 대상에 집중하지 못하는 상태.

마이크로소프트 캐나다 연구(2015)에 따르면, 사람들의 평균 주의 지속 시간은 2000년 12초에서 2015년 8초로 줄었다.¹⁸ 금붕어의 주의 지속 시간 9초보다 짧다.

알고리즘은 이것을 안다. 그래서 더 짧은 영상을, 더 빠른 전환을, 더 자극적인 내용을 제공한다. 사람들은 계속 돌아온다. 생각하지 않아도 되니까.

멈추면 안 된다

알고리즘은 당신이 멈추는 것을 원하지 않는다. 멈추면 알고리즘이 감지한다. "이 콘텐츠는 흥미롭지 않구나." 다음 콘텐츠를 보여준다. 더 자극적인 것. 더 짧은 것. 더 빠른 것.

유튜브의 수석 제품 책임자 Todd Bopf는 2025년 인터뷰에서 이렇게 말했다.

"우리는 시청자가 계속 시청하도록 만드는 것이 목표입니다. 시청자가 영상을 끝까지 보고, 다음 영상을 보고, 계속 플랫폼에 머무르도록 하는 것이죠."¹⁹

계속 머무르게 만들기. 생각할 틈을 주지 않기. 다음 자극을 계속 제공하기.

이것이 알고리즘의 목표다. 그리고 사람들의 판단 능력은 퇴화한다.


4. 알고리즘이 민주주의를 결정한다

확증편향 + 알고리즘 = 정치적 양극화

네이버 뉴스를 연다. "많은 사람이 본 뉴스"가 상단에 표시된다. 클릭한다. 댓글을 본다. "역시 내 생각이 맞네." 그리고 사람들은 믿는다. 알고리즘이 "많은 사람이 본" 뉴스라고 보여줬으니까.

팩트 체크는 하지 않는다. 시간이 없다. 다음 콘텐츠가 기다리고 있다.

2023년 반론보도닷컴의 분석에 따르면, 한국 언론의 가짜뉴스 관련 기사는 9,173건에 달했다.²⁰ 이 중 77.4%가 정치 관련 기사였다.²¹

알고리즘은 이런 기사를 선별하지 않는다. 클릭률이 높으면 보여준다. 댓글이 많으면 상단에 노출한다. 공감이 많으면 추천한다.

진실 여부는 알고리즘의 관심사가 아니다. 참여도(Engagement)가 알고리즘의 관심사다.

익명성 + 알고리즘 = 무책임한 발화

네이버 뉴스 댓글. 유튜브 댓글. 트위터(X) 댓글. 익명이다. 책임이 없다. 그리고 알고리즘은 "공감 많은 댓글"을 상단에 노출한다.

악플은 빠르게 퍼진다. 확증편향을 강화하는 댓글은 더 많은 공감을 받는다. 알고리즘은 이것을 학습한다. 그리고 더 자극적인 댓글을, 더 극단적인 주장을, 더 빠르게 확산시킨다.

2022년 경찰청 사이버범죄 수사 통계에 따르면, 사이버 명예훼손 건수는 1만 2,377건으로 전년 대비 18.3% 증가했다.²² 사이버 모욕 건수는 4,238건으로 23.4% 증가했다.²³

알고리즘은 이것을 막지 않는다. 오히려 참여도가 높다는 이유로 더 많이 노출한다.

정치를 알고리즘에게 묻는다

2024년 4월 총선. 많은 사람들이 유튜브에서 "투표 가이드" 영상을 봤다. 알고리즘은 당신의 성향을 분석하고, "당신이 좋아할" 후보를 추천하는 영상을 보여줬다.

정치는 알고리즘이 "당신 성향에 맞는" 콘텐츠를 보여주는 것으로 바뀌었다. 투표는 알고리즘이 반복해서 보여준 후보를 찍는 것으로 바뀌었다.

민주주의는 판단하는 시민을 전제로 한다. 하지만 알고리즘 시대의 시민은 알고리즘이 선별한 정보만 보고, 알고리즘이 강화한 확증편향으로 판단하고, 알고리즘이 추천한 선택을 한다.

이것이 민주주의인가? 아니면 알고리즘이 설계한 선택의 환영인가?


5. 무사유의 완성: 27년 + 12년 + 55분

조직 문화 27년

21장에서 봤듯이, 한국인은 평균 27년 동안 조직 생활을 한다.²⁴ 상명하복. 절차 중심. 선례 답습. 이 과정에서 "왜?"라는 질문은 사라진다.

교육 시스템 12년

22장에서 봤듯이, 한국 학생은 12년 동안 암기 중심 교육을 받는다.²⁵ 정답 찾기. 시험 준비. 이 과정에서 "생각하는 능력"은 퇴화한다.

디지털 알고리즘 매일 55분

그리고 24장. 한국인은 매일 유튜브를 55분씩 본다.²⁶ 틱톡, 인스타그램, 네이버까지 합하면 하루 평균 3시간 이상.²⁷ 이 시간 동안 알고리즘이 제시한 콘텐츠를 본다. 생각하지 않고.

27년(조직) + 12년(교육) + 매일 55분(디지털).

무사유는 이렇게 완성된다.

아렌트가 말한 "생각의 무능력"은 이제 개인의 문제가 아니다. 시스템의 산물이다. 조직이 사유를 제거하고, 교육이 사유를 약화시키고, 알고리즘이 사유를 대체한다.

아이히만은 나치 체제 속에서 생각하지 않았다. 21세기 시민은 알고리즘 속에서 생각하지 않는다.

아렌트는 이렇게 물었다. "사유 없이 살아갈 수 있는가?"²⁸

21세기는 답한다. "알고리즘이 있으면 가능하다."


6. AJIM 모델: 알고리즘이라는 나쁜 통

알고리즘 = 나쁜 통(B)

AJIM 모델의 2×2 매트릭스로 보면, 알고리즘은 '나쁜 통(B)'이다.

왜 나쁜 통인가? 짐바르도가 제시한 나쁜 통의 조건 5가지를 떠올려보자.²⁹

1) 익명성 보장: 네이버 댓글, 유튜브 댓글, 익명 커뮤니티. 책임을 지지 않아도 된다.

2) 탈개인화: 당신은 '사용자 ID 123456789'일 뿐이다. 알고리즘은 당신을 데이터로 본다.

3) 권위의 정당화: "많은 사람이 본 뉴스", "추천 알고리즘", "공감 많은 댓글". 알고리즘은 권위처럼 작동한다.

4) 명확한 규칙과 절차: 클릭률, 시청시간, 참여도. 알고리즘의 규칙은 명확하다. 그리고 내용의 진실성은 고려하지 않는다.

5) 집단적 동조 압력: 필터 버블과 에코 챔버. 같은 생각을 가진 사람들만 모인다. 다른 생각은 배제된다.

알고리즘은 현대판 '나쁜 통'이다. 그리고 이 통 속에서 시민들은 생각하지 않는다.

알고리즘 × 무사유 = BN

알고리즘(나쁜 통) × 무사유 = BN 유형.

넷플릭스를 켜고 추천 영상을 보는 것. 네이버 뉴스를 켜고 실시간 검색어를 보는 것. 유튜브를 켜고 알고리즘 추천 영상을 보는 것.

이 모든 행위는 BN 유형이다. 나쁜 통(알고리즘) 속에서 무사유(T가 아닌 N)로 살아가는 것.

12.3 계엄 이후, 사람들은 유튜브를 켰다. 알고리즘이 추천한 영상을 봤다. 필터 버블 속에서 확증편향을 강화했다. 에코 챔버 속에서 극단화되었다.

그리고 광화문과 여의도로 향했다. 생각하지 않고. 알고리즘이 보여준 것만 믿고.

이것이 디지털 BN 유형이다.

BT는 가능한가?

나쁜 통(알고리즘) 속에서도 사유(T)는 가능한가?

가능하다. 하지만 매우 어렵다. 알고리즘이 보여주는 것 외에 다른 정보를 찾아야 한다. 추천 영상을 거부하고 직접 검색해야 한다. 필터 버블을 인식하고 의도적으로 다른 관점을 찾아야 한다.

이것은 시간이 걸린다. 노력이 필요하다. 그리고 대부분의 사람들은 그럴 여유가 없다.

알고리즘은 '편리함'을 제공한다. 그 대가로 '사유'를 가져간다.

해법은?

알고리즘을 바꿀 수 없다면 사유를 회복해야 한다. 하지만 알고리즘의 설계 자체가 사유를 제거하도록 만들어졌다면, 개인의 노력만으로는 부족하다.

26장에서 볼 것이다. 민주주의는 사유 없이는 유지될 수 없다. 그렇다면 알고리즘 시대의 민주주의는 어떻게 가능한가?

이것이 우리가 답해야 할 질문이다.


참고문헌

1. 한국콘텐츠진흥원, 『글로벌 OTT 시장 동향 보고서』, 2024.11

2. 마소캠퍼스, 「넷플릭스의 추천 알고리즘 분석」, 2023.3

3. 한국언론진흥재단, 『2023 언론수용자 조사』, 2023

4. 와이즈앱, 『2023년 한국인 앱 사용 시간 보고서』, 2024.1

5. Google, 「YouTube 추천 시스템 작동 원리」, YouTube Creator Academy, 2023

6. 네이버, 「네이버 뉴스 편집 원칙」, 2023

7. Sam Gilbert, 「Good Data: An Optimist's Guide to Our Digital Future」, 2022

8. Netflix TechBlog, 「The Netflix Recommender System: Algorithms, Business Value, and Innovation」, Todd Yellin 인터뷰, 2013

9. Paul Covington et al., 「Deep Neural Networks for YouTube Recommendations」, 2016

10. Eli Pariser, 『The Filter Bubble: What the Internet Is Hiding from You』, Penguin Press, 2011

11. Eli Pariser, 위의 책, p.9

12. 연세대학교 정보대학원, 「유튜브 추천 알고리즘의 정치적 편향성 연구」, 2020

13. C. R. Sunstein, 『#Republic: Divided Democracy in the Age of Social Media』, Princeton Uni. ersity Press, 2017

14. 엠브레인 트렌드모니터, 『2023 정치 관심도 조사』, 2023

15. 엠브레인 트렌드모니터, 위의 조사

16. Sensor Tower, 『TikTok Usage Statistics 2023』, 2023

17. Gloria Mark, 「Attention Span: A Groundbreaking Way to Restore Balance, Happiness and Productivity」, 2023

18. Microsoft Canada, 「Attention Spans」, Consumer Insights Report, 2015

19. Todd Bopf, 유튜브 인터뷰, 2025.1

20. 반론보도닷컴, 『2023 가짜뉴스 통계 분석』, 2024.1

21. 반론보도닷컴, 위의 보고서

22. 경찰청, 『2022 사이버범죄 통계』, 2023

23. 경찰청, 위의 통계

24. 통계청, 『2023 경제활동인구조사』, 2023

25. 한국교육개발원, 『2022 한국 교육 통계』, 2023

26. 와이즈앱, 『2023년 한국인 앱 사용 시간 보고서』, 2024.1

27. 방송통신위원회, 『2023 방송매체 이용행태 조사』, 2023

28. 한나 아렌트, 『정신의 삶』, 1978, p.5

29. 필립 짐바르도, 『루시퍼 이펙트』, 2007, pp.226-227

수, 목 연재
이전 23화윤석열의 탄생: 통과 무사유가 만든 결과