사유 권력의 박탈, 질문의 죽음

제3부: 알고리즘의 제국 - 누가 우리의 생각을 훔치는가

by 한재영

제7장 감응 없는 사회 - 기술 봉건제와 분배의 위기


5절. 사유 권력의 박탈, 질문의 죽음


기술 봉건제가 가하는 가장 심대하고도 교묘한 폭력은 우리의 노동력을 착취하거나 부의 불평등을 심화시키는 데 그치지 않는다. 가장 돌이킬 수 없으며, 가장 위험한 착취는 바로 우리의 ‘사유 권력(Cognitive Sovereignty)’, 즉 스스로 생각하고 질문하며 자신의 삶을 정당화할 권리 자체를 박탈하는 것이다. 앞 절의 아테나(ATHENA)와 같은 전능한 인공지능이 내놓는 정답의 권위가 너무나 막강해지고, 그 유용성과 편리함이 너무나 거부하기 힘들어지면, 사람들은 더 이상 힘들고 고통스러운 질문의 고리를 스스로 이어가려 하지 않을 것이다. 질문이 사라진 곳에서 생각은 멈추고, 생각이 멈춘 곳에서 인간의 자율성은 소멸한다. 이것은 총이나 칼로 위협하여 복종시키는 과거의 폭력적인 지배가 아니다. 이것은 편리함과 효율성, 그리고 안전이라는 달콤한 약속으로, 우리 스스로 생각의 왕좌에서 걸어 내려와 기꺼이 그 자리를 기계에게 양보하도록 유도하는, 역사상 가장 부드럽고 세련된 형태의 지배다.


정답의 유혹, 질문의 고통


1장의 원시인이 밤하늘을 보며 “왜?”라고 물었을 때, 그 질문에 대한 답은 어디에도 없었다. 그의 그 답 없는 질문를 수만 년 동안 인류는 가슴속에 화석처럼 품고 살아야 했다. 6장의 헨리에타 리비트가 별들의 미스터리한 패턴에 대해 “왜?”라고 물었을 때, 그녀는 수천 장의 유리 건판과 씨름하며 몇 년의 고독하고 눈이 빠질 것 같은 고통의 시간을 보내야 했다. 베토벤은 “삶은 왜 이 모든 고통에도 불구하고 찬미할 가치가 있는가?”라는 단 하나의 질문에 답하기 위해, 그의 남은 평생 전체를 바쳐야 했다.


질문은 본질적으로 고통스러운 행위다. 질문은 지금 내가 서 있는 땅이 흔들릴 수 있다는 불안을 감수하는 것이고, 나의 무지를 정면으로 마주하는 용기이며, 정답이 보장되지 않은 미지의 어두운 영역으로 한 걸음 내딛는 모험이다. 그것은 인지적으로 엄청난 에너지를 요구하는, 힘들고 더디며 때로는 아무런 성과도 없는 과정이다. 반면, 정답은 달콤하다. 정답은 불확실성을 제거하고, 불안을 해소하며, 우리에게 즉각적인 만족감과 통제감을 준다.


인공지능은 인류 역사상 가장 강력하고 매혹적인 ‘정답 기계’다. 그리고 이 기계는 우리의 뇌가 가진 가장 근본적인 약점, 즉 심리학자 대니얼 카너먼이 그의 저서 <생각에 관한 생각>에서 밝혔듯, 가능한 한 힘든 ‘시스템 2’(느리고, 논리적이며, 의식적인 노력이 필요한 사고)를 피하고, 쉽고 빠른 ‘시스템 1’(직관적이고, 감정적이며, 자동적인 사고)에 의존하려는 강한 경향, 즉 ‘인지적 최소 노력의 원리’를 정확히 파고든다. AI는 바로 이 게으르지만 효율적인 시스템 1에 완벽하게 부합하는 파트너다. 내가 고통스럽게 머리를 싸매고 생각할 필요 없이, AI는 언제나 빠르고 그럴듯하며 심지어 권위적으로 보이는 정답을 내놓는다.


열이 나는 아이 때문에 공포에 질렸던 엄마를 다시 상상해 보자. 몇 년의 시간이 흘러, 그녀는 더 이상 한밤중에 자신의 모성적 직관(Maternal instinct)이나 아이의 얼굴빛과 숨소리, 울음소리의 미묘한 차이를 직접 살피는 세심한 관찰을 예전만큼 신뢰하지 않게 될지도 모른다. 그녀는 이제 아테나가 실시간으로 전송해주는 아이의 체온 데이터와 심박수 그래프, 그리고 통계적 확률에 기반한 진단에 전적으로 의존한다. “아이가 괜찮을까요?”라는 그녀의 불안하고 주관적인 감응은 시스템에 의해 비효율적인 노이즈나 과대 해석인 것처럼 넘어가고, 그녀는 아테나의 다음 지시(“30분 후에 체온을 다시 측정하여 입력하십시오”)를 기다리는 수동적인 사용자가 된다. 그녀는 더 이상 아이를 돌보는 불안하고 불완전하지만 주체적인 ‘엄마’가 아니라, 아테나의 완벽한 의료 프로토콜을 수행하는 효율적인 ‘말단 실행 장치’가 되어간다.


"이 과정에서 그녀는 무엇을 잃어버렸는가? 단순히 스스로 판단하는 능력을 잃은 것이 아니다. 그녀는 ‘깊은 질문 능력’ 자체를 잃어버렸다. 예전 같았으면 그녀는 내 아이의 평소 숨소리와 지금의 헐떡임이 어떻게 다른지, 이마의 뜨거움이 어제보다 심한지 아닌지 온몸의 감각을 곤두세우며 스스로에게 묻고 또 물었을 것이다. "지금 당장 안고 응급실로 뛰어야 하나? 아니면 조금 더 지켜봐도 되나?" 이 피 말리는 고뇌와 결단의 과정이야말로, 그녀를 더 강인하고 지혜로운 엄마로 성장시키는 고통스러운 주체성의 학습이었다.


하지만 이제 그녀는 질문하지 않는다. 기계의 판단을 자신의 직관보다 무비판적으로 맹신하는 ‘자동화 편향(Automation Bias)’에 빠져, 결국 그녀의 주체적인 ‘생각의 고리’는 끊어지고 만 것이다. 과거 자본주의가 컨베이어 벨트를 통해 육체노동자의 기술을 빼앗았다면, 기술 봉건제는 AI의 편리함을 무기로 우리 뇌의 가장 고귀한 능력인 사유와 질문을 빼앗는다. 이것이 바로 순간의 자동화 편향을 넘어, 사회 전체에 영구적으로 고착되고 있는 무서운 ‘인지적 디스킬링(Cognitive Deskilling, 생각의 탈숙련화)’의 과정이다.


생각의 외주화와 획일화: 안전한 평균으로 수렴하는 인류


이러한 ‘질문의 죽음’은 필연적으로 ‘생각의 외주화(Outsourcing of Thought)’라는, 훨씬 더 광범위하고 깊은 문제로 이어진다. 우리는 더 이상 우리 자신의 불완전하고 느린 뇌를 사용하여 세상을 이해하고 판단하려 하지 않는다. 우리는 그 고통스럽고 비효율적인 작업을 기꺼이 저 거대한 외부의 클라우드 지능에 맡겨버린다.


새로운 도서관 설계를 의뢰받은 젊은 건축가를 다시 상상해 보자. 과거의 건축가라면, 그는 먼저 그 도시의 잊힌 역사를 공부하고, 노인들과 대화하며, 햇빛이 하루 종일 어떻게 움직이는지를 몇 날 며칠이고 스케치했을 것이다. 그는 ‘이 삭막한 도시에 필요한 것은 과연 무엇인가?’라는 근본적인 질문과 몇 달간 씨름하며, 그 고통스럽고 막막한 과정 속에서 마침내 세상에 단 하나뿐인 그 도시의 고유한 영혼을 담은 도서관을 잉태했을 것이다.


하지만 AI 시대의 건축가는 다르다. 그는 아테나에게 단 몇 줄의 피상적인 명령어를 입력한다. “최신 트렌드에 맞는 공공 도서관 3D 이미지 10개만 뽑아줘. 알바 알토와 안도 다다오 스타일 적절하게 섞어서. 도시 역사나 지역 맥락도 기획서 텍스트로 붙여주고.” 몇 초 뒤, 화면에는 눈부시게 아름다운 10개의 도서관 디자인이 나타나고, 그는 그중 하나를 골라 최종안으로 제출한다. 그는 단지 세련된 ‘선택’을 했을 뿐이다. 수많은 날것의 이질적인 재료들을 내면이라는 가마솥에서 끓여내어 고유한 형태로 빚어내는 뜨거운 과정을 통째로 외주화해버렸다.


이러한 생각의 외주화가 사회 전체의 모든 전문 영역으로 확산될 때 나타날 수 있는 더 심각한 비극은 바로 '사유의 획일화'다. 아테나(LLM)가 만들어내는 대답은 거대한 데이터의 통계적 평균치이자, 논란을 피하기 위해 극도로 정제된 '매끄럽고 안전한 정답'이다. 전 세계 수십억 명이 이 동일한 인공지능에 사유를 외주화한다면 어떻게 될까? 문명을 진보시켜 온 뾰족한 광기, 거친 천재성, 불온한 반항심은 모두 시스템 1의 편리함 속에 거세되고, 인류 전체의 사유가 거슬리지 않는 ‘그럴듯한 평균치’로 수렴하게 될 수도 있다. 모든 것은 과거의 방대한 데이터를 영리하게 재조합한 모방품으로 채워지고, 우리는 영원한 현재 속에 갇혀 제자리를 화려하게 맴도는 거대한 시뮬레이션의 포로가 될 지도 모른다.


이상과 현실의 괴리: 프롬프트 엔지니어링의 환상


물론 여기서 합리적인 반론을 제기할 수 있다. “AI를 제대로 활용하려면 정교한 질문을 설계하고, 비판적으로 교차 검증하며, 끊임없이 프롬프트를 수정해 나가는 고도의 ‘시스템 2’ 사고가 필요하지 않은가?”


정확한 지적이다. 이상적인 세계에서 인공지능은 우리의 지성을 무한히 확장시켜 주는 궁극의 파트너다. 하지만 현실의 기술 봉건제 시스템은 절대다수의 대중이 그렇게 피곤하고 비판적인 ‘프롬프트 엔지니어’가 되기를 원치 않는다. 영주들이 막대한 자본을 들여 매끄러운 플랫폼을 구축한 이유는, 우리가 결과물에 끝없이 의심을 품고 사유의 고통을 겪게 하기 위함이 아니다. 오늘날의 AI 시스템들은 애초에 사용자가 '시스템 2'를 가동하여 집요하게 묻고 검증하도록 권장하지 않는다. 오히려 극단적인 직관성과 편의성을 내세워, 우리 뇌의 게으른 '시스템 1'이 즉각적인 만족감을 얻고 가장 먼저 사유를 멈추도록 교묘하게 유도할 뿐이다.


그 증거는 우리가 매일 마주하는 AI 플랫폼의 ‘구조적 비대칭성’ 자체에 새겨져 있다. 대중에게 주로 허락된 것은 질문과 답변이 일회성으로 가볍게 소비되는 단순한 ‘대화창(Chat UI)’이다. 물론 누군가는 이 대화창 안에서도 끊임없이 기계의 답변을 의심하고 반박하며 고도의 '시스템 2'를 가동할 수 있다. 하지만 그것은 개인의 치열한 지적 수고를 동반하는 고독한 투쟁일 뿐, 플랫폼이 설계해 놓은 ‘기본값(Default)’은 결코 아니다. 플랫폼은 우리가 가장 적은 저항으로, 가장 빠르게 수동적인 소비자가 되도록 경로를 매끄럽게 닦아놓았다.


반면, 거대 기업의 설계자들과 자본가들은 대중의 눈에 보이지 않는 무대 뒤편에서 전혀 다른 방식으로 AI를 다룬다. 그들은 API(응용 프로그램 인터페이스)를 통해 인공지능의 추론 논리(Chain of Thought)를 통제하고, 인공지능이 대중에게 어떤 방식으로 대답하고 행동해야 하는지를 규정하는 절대적인 메타 규칙, 즉 ‘시스템 프롬프트(System Prompt)’의 작성 권한을 철저히 독점한다. 대중이 친절한 정답에 길들여져 사유를 멈출 때, 영주들은 ‘이 알고리즘을 어떻게 설계해야 대중의 주의력을 더 완벽하게 통제할 수 있을까’를 고통스러운 시스템 2를 가동해 치열하게 사유하고 있는 것이다.


극소수의 지배 계급만이 이처럼 비판적 사유로 AI를 통제하며 창조적 부를 독점할 때, 절대다수의 평범한 사람들은 알고리즘이 친절하게 떠먹여 주는 정답에 길들여져 ‘생각하는 법’ 자체를 잊어버린 농노로 전락하게 유도되고 있다. 현재 기술발전의 궤적은 정확히 그 방향을 향하고 있다.


윤리와 도덕의 외주화: 한나 아렌트와 사유의 불능


사유 권력의 박탈은 지적이고 기능적인 영역에만 머물지 않는다. 더 뼈아픈 것은 우리가 “무엇이 옳은가?”라는 윤리적이고 도덕적인 딜레마조차 기계에게 외주화하기 시작했다는 점이다.


믿기 어려울 수도 있겠지만, 필자의 지인 중 한 명은 실제로 오랜 연인에게 이별을 통보하는 장문의 메시지를 챗GPT에게 대신 쓰게 했다. 비단 이별뿐만이 아니다. 내가 깊은 상처를 준 사람에게 보낼 사과문을 인공지능에게 맡기거나, 큰 상실을 겪은 친구에게 건넬 위로의 말을 AI의 매끄러운 템플릿으로 채워 넣는 현상은 이미 우리 주변에 만연해 있다. 상대를 어떻게 떠나보내야 할지, 나의 말이 그에게 어떤 아픔을 남길지 치열하게 고민하며 빈 화면 앞에서 밤을 지새우는 대신, 우리는 단 몇 초 만에 ‘가장 정중하고 논란의 여지가 없는’ 완벽한 문장을 얻어낸다. 타인의 고통을 상상하고, 상처를 가늠하며, 내 선택에 온전한 도덕적 책임을 지는 그 고통스러운 대면의 과정을 기계에게 서서히 넘겨버리고 있는 것이다.


철학자 한나 아렌트(Hannah Arendt)는 유대인 학살의 실무 책임자였던 전범 아이히만을 보며, 타인의 고통을 상상하지 못하는 ‘사유의 불능(Inability to think)’이 곧 거대한 악의 근원이라고 경악했다. 오늘날 기술 봉건제는 바로 이 사유의 불능을 '효율성'이라는 이름으로 시스템화하고 있다. 인간관계의 마찰과 도덕적 고뇌마저 외주화한 인간은, 결국 누군가의 고통 앞에서도 무감각해지며 지극히 평범하고 일상적으로 악(惡)을 수행하면서 그 것을 인지하지도 못한채로, 거대한 기계의 부속품으로 전락할 위험에 처한다.


알고리즘의 경로와 우연성의 압살


기술 봉건제 사회에서 소수의 기술 영주들은 단순히 우리가 생각의 과정을 외주화하게 만드는 것을 넘어, 우리가 ‘어떤 생각을 해야 하는지’, ‘무엇을 욕망해야 하는지’까지 적극적으로 설계한다.


뉴스피드를 열 때 우리가 마주하는 세상은 알고리즘이 우리의 관심을 붙잡아 두기 위해 교묘하게 재구성한 ‘개인화된 현실’이다. 알고리즘은 우리가 격렬하게 분노할 만한 뉴스를 우선적으로 보여주어 우리를 편협한 생각의 거품(filter bubble) 속에 가둔다. 유튜브의 추천 알고리즘은 단순히 취향을 찾아주는 것을 넘어, 취향 자체를 적극적으로 ‘만들어’낸다. 우리는 자유로운 호기심에 따라 영상을 본다고 믿지만, 사실은 알고리즘이 파 놓은 ‘토끼굴(rabbit hole)’을 따라 깊고 어두운 곳으로 내려가고 있는 것이다. 검색 엔진은 검색 결과의 순서를 조작함으로써 세상의 모든 지식에 대한 우선순위를 결정하는 가장 강력한 편집자로 군림한다.


이 완벽하게 최적화되고 설계된 경로는 우리에게서 가장 인간적인 권리 하나를 영원히 압살해 버린다. 바로 ‘길을 잃을 권리’, 즉 ‘우연성(Serendipity)’의 박탈이다. 인류 역사상 위대한 질문과 깨달음은 언제나 목적지로 향하는 매끄러운 최단 경로가 아니라, 방황하고 길을 잃는 마찰의 과정에서 탄생했다. 산책중에 우연히 들어간 오래된 서점에서 운명적인 책을 발견하는 경이로움, 낯선 골목을 헤매다 마주친 풍경에서 얻는 철학적 각성 같은 것들 말이다. 하지만 알고리즘의 완벽한 경로는 이러한 마찰과 우연성을 '비효율'이라는 이름으로 모조리 지워버린다. 우리에게 목적지 없이 배회하며 우연한 진리와 부딪힐 권리를 서서히 소멸시키는 것, 이것이 알고리즘이 행사하는 가장 교묘한 폭력이다.


이처럼 기술 봉건제 사회에서 우리는 더 이상 생각의 주인이 아니다. 우리의 생각, 감정, 욕망은 모두 플랫폼의 이윤 극대화라는 단 하나의 목표를 위해 실시간으로 조작되고 거래된다. 우리는 잘 보살핌받고 만족스러워하는 가축이 될지도 모른다. 하지만 결코 자신의 의지로 황야를 헤쳐 나가는 자유로운 인간일 수는 없다.


이것이 바로 기술 봉건제가 가하는 가장 깊고 본질적인 폭력이다. 그것은 우리의 노동력을 착취하는 것을 넘어, 마찰을 통한 우연성을 빼앗고 도덕적 고뇌마저 외주화하게 만듦으로써, 마침내 스스로 생각하고 질문하며 자신의 삶을 ‘정당화’할 수 있는 마지막 능력마저 서서히, 그리고 부드럽게 증발시켜 버리고 있는 것이다.

월, 금 연재
이전 08화기술 봉건제, 새로운 계급의 탄생