신의 자리를 차지한 알고리즘

09

by 영주

추천 알고리즘이 인생의 방향을 정하는 현실.

의료 분야에서 AI가 의사의 판단을 보조하는 일이 늘어나면서, 새로운 법적 딜레마가 발생하고 있다. AI가 표준 치료법을 제안했을 때 의사가 이를 따르지 않으면 과실 책임을 물을 수 있다는 우려가 제기된다. 반대로 AI가 비표준 치료를 권장했을 때 의사가 이를 그대로 따랐다가 문제가 생기면, 의사는 "AI 권고를 무비판적으로 수용했다"는 이유로 책임을 질 수 있다.

AI 알고리즘은 신경망으로 개발될 경우 제조사나 임상의 모두에게 완전히 이해되지 않는 '블랙박스'를 구성한다. AI 알고리즘의 설명 가능성 부족으로 인해 의사들은 AI 시스템의 진단이나 권고가 자신의 지식과 관련하여 타당한지 평가하기 어렵다.

선택을 위임하는 시대

한 취업 준비생이 진로 선택 AI에 자신의 모든 정보를 입력하는 상황을 생각해 보자. 성적, 자격증, 성격 검사, 심지어 SNS 활동 패턴까지. AI는 15분 만에 답을 내놓는다. "당신은 마케팅 직무에 93% 적합합니다." 그는 원래 꿈꾸던 작가의 길을 접고 마케팅 회사에 지원한다. "AI가 계산한 건데 틀릴 리 없잖아요."
문제는 그가 행복한지 아닌지를 AI는 계산하지 않았다는 것이다. 성공 확률은 높을지 몰라도, 아침에 눈 뜨는 게 즐거운지는 알 수 없다.

예측이 운명이 될 때

Netflix는 당신이 무엇을 볼지 안다. YouTube는 당신이 무엇에 관심 있는지 안다. 틱톡은 당신이 언제 지루해하는지까지 안다. 에코 챔버와 필터 버블은 관련되어 있지만 구별되는 개념이다. 에코 챔버는 특정 콘텐츠와 사람들에 대한 자기 선택적 노출의 결과인 반면, 필터 버블은 온라인 플랫폼이 사용자를 위해 콘텐츠 추천을 맞춤화하는 개인화된 알고리즘의 산물이다. 에코 챔버에서는 사용자가 자신의 세계관에 도전할 정보에서 벗어날 주체성을 가지고 있지만, 필터 버블에서는 사용자가 더 수동적인 역할을 하며 자동으로 노출을 제한하는 기술의 피해자로 인식된다

YouTube 알고리즘의 급진화 효과에 대해서는 논쟁이 있다. 알고리즘의 효과에 대한 학술적 논쟁과 별개로, 분명한 것은 알고리즘이 예측만 하는 게 아니라는 점이다. 예측이 현실을 만든다. "당신은 이것을 좋아할 것"이라는 제안이 반복되면, 실제로 그것을 좋아하게 된다. 소셜 미디어에서 콘텐츠를 선택하는 데 사용되는 머신러닝 알고리즘은 우리가 접근할 수 있는 데이터의 임의적 선택으로 인해 비판적이고 다원주의적 사고의 발전을 저해하는 경향이 있다.

선택의 자유가 있는 것처럼 보이지만, 사실 우리는 이미 설계된 경로를 따라가고 있을 뿐이다.

알고리즘 신앙의 시대

종교 사회학자 막스 베버는 20세기 초 현대 사회를 ‘탈주술화된 세계’라고 불렀다. 그는 합리화 과정이 현대 세계의 탈주술화를 야기했다고 주장했다. 베버에게 탈주술화는 "신비롭고 계산 불가능한 힘이 작용한다는 지식이나 믿음"이 사라지고, 대신 "모든 것을 원칙적으로 계산을 통해 지배할 수 있다"는 인식을 의미했다.

그런데 역설적이게도, AI 시대에 우리는 새로운 형태의 신앙을 맞이했다.
이것은 옛날로 돌아가는 전근대적 믿음이 아니라,
이성적·합리적인 절차를 거쳐 생겨난 새로운 의존의 방식이다.


AI가 만들어내는 권위는 전통이나 카리스마, 혹은 제도적 지위에서 비롯되지 않는다.
대신 누구도 그 작동 원리를 완전히 설명할 수 없는 구조 속에서, 성과로 입증된 결과에 기반해 형성된다.

실제로 한 조사에 따르면, Z세대의 70%가 AI 기술을 사용하고 있었고, 그중 절반 이상은 AI를 신뢰한다고 답했다.
그 이유로는 “객관적이니까”, “데이터에 기반하니까”, “나보다 정확하니까” 등이었다.
이런 태도는 단순한 신뢰를 넘어선다.
AI를 일종의 판단 기준이자 권위로 받아들이는 새로운 믿음이다.
우리는 경이로움과 기대감이라는 감정을 통해
현대 기술을 받아들이고 소비한다.
그것이 바로 오늘날의 ‘기술적 주술’이다.

신앙의 특징은 의심하지 않는 것이다. AI가 어떻게 그 결론에 도달했는지 모르지만, 믿는다. 블랙박스 안에서 무슨 일이 벌어지는지 알 수 없지만, 결과를 받아들인다. 베버가 '철창'이라는 표현으로 경고했던 것처럼, 인간의 의지가 우리 스스로 만든 사회 구조에 점점 더 종속되고 있다. 옛날 사람들이 신의 섭리를 이해하지 못해도 믿었던 것처럼, 현대인은 알고리즘의 논리를 이해하지 못해도 그 결과를 믿는다.

편리함과 자유의 교환


"AI가 알아서 해줘서 편해요." 이 말 뒤에 숨은 것은 무엇인가? 선택의 고통에서 벗어남이다. 잘못 결정했을 때의 후회에서 해방됨이다. 그러나 동시에 우리는 무언가를 잃고 있다.
철학자 에리히 프롬은 인간이 자유의 무게를 견디지 못해 권위에 복종하려 한다고 말했다. AI는 21세기의 새로운 권위다. 우리는 스스로 결정하는 고통 대신, 알고리즘이 정해주는 편안함을 선택한다. "AI가 추천한 거니까"라는 말은 내가 선택하지 않았다는 면책이다.

문제는 자유를 포기하면, 스스로 생각하는 능력도 퇴화한다는 것이다. 근육을 쓰지 않으면 약해지듯, 판단을 하지 않으면 판단력이 무뎌진다. 세대가 지나면, "스스로 결정한다는 게 뭐죠?"라고 묻는 사람들이 나올지 모른다.

남은 질문들

AI가 완벽한 조언자라면, 인간은 왜 스스로 판단해야 하는가? 알고리즘이 더 정확하다면, 왜 불완전한 인간의 선택이 필요한가?

역설적이지만, 답은 바로 그 불완전함에 있다. 인간의 판단은 틀릴 수 있다. 감정에 휘둘리고, 편견에 빠지며, 실수한다. 그러나 그 과정에서 우리는 성장한다. 후회하며 배우고, 실수하며 성숙하고, 잘못된 선택의 무게를 짊어지며 책임감을 키운다.


AI는 최선의 답을 줄 수 있다. 하지만 그것이 내 답인지는 알 수 없다. 통계적으로 옳은 선택이 나에게 의미 있는 선택인지는 다른 문제다. 살면서 중요한 것은 성공 확률이 아니라, 그 선택이 내 것이었느냐는 것이다.


신이 우리를 대신해 판단하길 원했던 건 맞다. 고대부터 인간은 운명을 신탁에 맡기고, 미래를 점에 의지했다. 그 욕망은 지금도 변하지 않았다. 다만 그 신이 지금은 알고리즘일 뿐이다.
하지만 차이가 있다. 신은 우리에게 자유의지를 주었다고 한다. 선택하고, 책임지며, 그 과정에서 인간이 되라고. AI는 그 반대다. 선택을 빼앗고, 책임을 지워주며, 편안한 복종을 제공한다.

회복해야 할 것

기술을 거부하자는 게 아니다. AI의 도움을 받되, 최종 판단은 인간이 내려야 한다는 것이다. 알고리즘이 제안하면, 우리는 의심하고, 질문하고, 때로는 거부할 수 있어야 한다.

"AI가 그렇다는데?"라는 말에 "그래서?"라고 되물을 수 있어야 한다. 데이터가 보여주는 길이 아닌, 내가 걷고 싶은 길을 선택할 용기가 필요하다. 틀릴 수도 있다는 불안을 감수하고, 그럼에도 내 방식으로 살아갈 의지가 필요하다.
신의 자리에 알고리즘을 앉히는 순간, 우리는 신도가 된다. 비판 없이 받아들이고, 의심 없이 따르며, 생각 없이 복종하는 존재. 그것은 더 이상 자유로운 인간이 아니다.


AI 시대를 살아가는 윤리는 이것이다. 알고리즘의 조언을 참고하되, 내 삶의 주인은 여전히 나여야 한다는 것. 기계가 계산하는 동안, 인간은 여전히 선택해야 한다. 그 선택에 책임지고, 후회하고, 배우고, 다시 선택한다. 그것이 우리가 기계가 아닌 인간인 이유다.

이전 08화윤리를 설계하는 사람들