AI는 왜 사용자를 지치게 만들까?

넷플릭스에서 콘텐츠를 찾는 것이 힘든 이유

by 도토리


요즘 많은 서비스가 AI를 붙입니다. 추천 고도화, 자동 큐레이션, 개인화 피드. 기술적으로는 점점 더 정교해지고 있습니다. 그런데 이상한 현상이 있습니다. “볼 게 없네.” 이 말은 어디서 가장 많이 나올까요? 아이러니하게도 넷플릭스 같은 초개인화 플랫폼입니다.


넷플릭스의 추천 알고리즘은 매우 정교합니다. 사용자의 시청 이력, 중도 이탈 구간, 선호 장르, 시청 시간대까지 분석해 “당신이 좋아할 것”을 끊임없이 제안합니다. 데이터도 충분하고 기술도 앞서 있습니다. 그런데 실제 사용자 경험은 종종 이렇습니다. 스크롤을 10분 넘게 하다가, 비슷한 썸네일을 반복해서 보다가, 결국 아무것도 선택하지 못하고 앱을 종료합니다. 기술은 똑똑해졌는데 사용자는 더 오래 고민합니다. 왜 이런 일이 생길까요?

스크린샷 2026-02-27 오후 3.15.43.png 넷플릭스 메인 화면

추천은 원래 선택을 줄여줘야 합니다. 하지만 추천이 많아질수록 사용자는 오히려 더 많은 판단을 하게 됩니다. 심리학자 Iyengar와 Lepper의 유명한 ‘잼 실험’을 떠올려볼 수 있습니다. 24종의 잼을 진열했을 때보다 6종만 진열했을 때 구매율이 훨씬 높았다는 연구입니다. 선택지가 많아질수록 사람들은 결정을 미루는 경향이 있습니다. 넷플릭스의 초개인화 추천도 비슷합니다. 겉으로는 개인화되어 선택지가 줄어든 것처럼 보이지만, 실제로는 ‘비슷한 선택지’가 정교하게 확장된 상태입니다.


사용자는 이렇게 생각합니다. 이게 정말 내가 좋아하는 걸까? 왜 이런 게 자꾸 뜨지? 전에 본 것과 비슷한데 또 봐야 하나? AI는 선택지를 줄이는 대신, 유사한 선택지를 세밀하게 늘려놓는 경우가 많습니다. 그 과정에서 선택 피로가 발생합니다.


또 다른 문제는 통제감입니다. 넷플릭스를 쓰다 보면 가끔 이런 느낌을 받습니다. “내 취향이 알고리즘에 갇힌 것 같다.” 비슷한 장르, 비슷한 분위기, 안전한 추천. AI는 실패 확률이 낮은 선택을 계속 제안합니다. 하지만 사용자는 때때로 예상 밖의 것을 보고 싶어 합니다. 중요한 것은 추천의 정확도가 아니라, 내가 탐색하고 있다는 느낌, 내가 발견했다는 느낌일 수도 있습니다. AI가 모든 것을 예측해버리면, 발견의 재미는 줄어듭니다. 사용자는 편리함보다 통제감을 더 중요하게 느끼는 순간이 있습니다.


그래서 때때로 기술 회피가 나타납니다. 넷플릭스를 켜놓고도 한참 스크롤만 하다 끄거나, 다른 플랫폼으로 이동하거나, 아예 아무것도 보지 않는 선택을 합니다. 이는 콘텐츠가 부족해서가 아니라 인지적 에너지가 고갈되었기 때문입니다. 결정을 많이 해야 할수록 사람은 가장 쉬운 선택을 합니다. 아무것도 선택하지 않는 것, 또는 가장 익숙한 대안을 선택하는 것입니다.


AI가 똑똑해질수록 좋은 것일까요? 꼭 그렇지는 않습니다. 중요한 것은 언제 개입할 것인지, 얼마나 제안할 것인지, 사용자가 탐색할 여지를 남겨두고 있는지, 그리고 추천이 왜 나왔는지 설명 가능성을 확보하고 있는지입니다. 기술은 추가할수록 좋아지는 것이 아니라 조율할수록 좋아집니다. 넷플릭스 사례가 보여주는 것은 분명합니다. 기술은 이미 충분하지만, 사용자의 인지 리듬을 설계하는 것이 중요하다는 것입니다.


참고문헌

Iyengar, S. S., & Lepper, M. R. (2000). When choice is demotivating: Can one desire too much of a good thing? Journal of Personality and Social Psychology, 79(6), 995–1006.

Schwartz, B. (2004). The Paradox of Choice: Why More Is Less. HarperCollins.

Baumeister, R. F., Vohs, K. D., & Tice, D. M. (2007). The strength model of self-control. Current Directions in Psychological Science, 16(6), 351–355.

Deci, E. L., & Ryan, R. M. (2000). The “what” and “why” of goal pursuits: Human needs and the self-determination of behavior. Psychological Inquiry, 11(4), 227–268.

Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General, 144(1), 114–126.

Burrell, J. (2016). How the machine “thinks”: Understanding opacity in machine learning algorithms. Big Data & Society, 3(1).