AI가 나를 조종하고 있는건 아닌가?

by 박현아

3시간이 사라졌다


토요일 오후. 소파에 앉아서 유튜브를 켰다. "딱 하나만 보자." 10분짜리 영상이었다.


정신 차리니 밤 9시였다.


3시간. 영상 열몇 개. 처음 건 내가 검색한 거다. 나머지는? 유튜브가 추천한 거다. 옆에 뜨는 썸네일. 자동 재생. "이 영상을 좋아하셨다면—"


나는 그 3시간 동안 단 한 번도 의식적으로 선택하지 않았다. 첫 영상만 내가 골랐다. 나머지는 알고리즘이 골랐고, 나는 따라갔다.


쇼핑앱도 마찬가지다. "이 상품을 본 사람들이 함께 구매한 상품." 필요 없었는데 샀다. 뉴스앱도. 내 성향에 맞는 기사만 보여주니까, 세상이 내가 믿는 방향으로만 돌아가는 것 같다.


이쯤 되면 슬슬 불안해진다.


내가 선택하고 있는 건가? 아니면 선택당하고 있는 건가?


이 감각을 가장 정확하게 포착한 철학자가 있다. 그리고 그는 이 구조를 감옥에 비유했다.



푸코와 판옵티콘


미셸 푸코. 프랑스 철학자. 1975년, 감시와 처벌이라는 책을 썼다.


이 책에서 푸코는 판옵티콘(Panopticon)이라는 건축물을 분석한다.


판옵티콘은 18세기 영국 철학자 제러미 벤담이 설계한 감옥이다. 구조는 단순하다. 원형으로 배치된 수감실. 중앙에 감시탑. 감시탑에서는 모든 수감실을 볼 수 있지만, 수감자는 감시탑 안을 볼 수 없다.


핵심은 이거다 — 수감자는 자기가 지금 감시받고 있는지 알 수 없다.


감시자가 있을 수도 있고 없을 수도 있다. 자고 있을 수도 있다. 다른 수감자를 보고 있을 수도 있다. 알 수 없다.


그래서 수감자는 항상 감시받고 있다고 가정하고 행동한다. 규칙을 어기지 않는다. 고분고분해진다. 감시자가 실제로 보고 있든 아니든 상관없이.


푸코가 주목한 건 바로 이 지점이다. 판옵티콘의 진짜 효과는 감시 자체가 아니라, 감시를 내면화시키는 것이다. 외부의 통제가 내부의 자기 통제로 바뀐다. 감시자가 없어도 수감자는 스스로를 감시한다.


감옥의 벽이 필요 없어진다. 감옥이 머릿속에 들어왔으니까.



알고리즘이라는 감시탑


2026년. 우리 주변에 판옵티콘은 없다. 원형 감옥은 없다. 감시탑은 없다.


대신 알고리즘이 있다.


유튜브 알고리즘은 당신이 뭘 보는지 안다. 얼마나 오래 보는지, 어디서 멈추는지, 뭘 스킵하는지. 이 데이터로 다음 추천을 만든다.


쇼핑앱 알고리즘은 당신이 뭘 사는지, 뭘 장바구니에 넣었다 뺐는지, 어떤 가격대에서 결제하는지 안다.


SNS 알고리즘은 당신이 누구의 글에 반응하는지, 어떤 단어에 멈추는지, 몇 시에 접속하는지 안다.


AI 어시스턴트는 당신이 뭘 물어보는지, 어떤 톤으로 말하는지, 어떤 결정을 내리는지 안다.


이것들은 감시인가?


전통적 의미의 감시 — 누군가 당신을 엿보는 것 — 와는 다르다. 유튜브가 당신의 시청 기록을 보는 건 경찰이 당신의 방을 수색하는 것과 같지 않다.


하지만 푸코의 판옵티콘이 무서운 건 감시 자체가 아니라 행동의 변화였다. 수감자가 감시당한다는 가능성만으로 행동을 바꾸는 것.


알고리즘도 같은 일을 한다. 다만 방식이 정반대다.


판옵티콘은 행동을 억제했다. "감시당하니까 하지 말아야지."


알고리즘은 행동을 유도한다. "추천하니까 해봐야지."


결과는 같다. 당신의 행동이 당신의 의지가 아니라 외부 구조에 의해 결정된다.



명령이 아니라 제안


여기서 알고리즘이 판옵티콘보다 더 교묘한 점이 드러난다.


감옥의 규칙은 명령이다. "이것을 하지 마라." 명확하다. 보이니까 저항할 수 있다. "부당한 규칙이다"라고 말할 수 있다. 감옥의 벽은 눈에 보인다.


알고리즘의 규칙은 제안이다. "이건 어때?" "이것도 좋아할걸?" "다른 사람들은 이걸 골랐어." 강제가 아니다. 선택지를 제공할 뿐이다. 당신은 언제든 '아니오'를 누를 수 있다.


하지만 그 선택지 자체가 조작되어 있다.


슈퍼마켓에서 눈높이 선반에 놓인 제품을 사는 확률이 높다. 제품이 좋아서가 아니라, 눈에 띄기 때문이다. 소비자는 '내가 골랐다'고 생각하지만, 실제로는 진열 위치가 골라준 것이다.


알고리즘은 디지털 진열대다. 무엇을 눈높이에 놓을지를 결정한다. 당신은 고르기만 하면 된다. 자유롭게. 주어진 선택지 안에서.


푸코의 용어로 이것을 규율 권력(disciplinary power)이라 한다. 명시적으로 강제하지 않지만, 행동의 범위를 구조적으로 제한하는 힘. 당신은 자유롭다고 느끼지만, 실제로는 설계된 범위 안에서만 움직이고 있다.



넛지: 부드러운 팔꿈치


이 개념을 현대적으로 업데이트한 것이 넛지(nudge)다.


넛지는 행동경제학자 리처드 탈러의 개념이다. 팔꿈치로 슬쩍 찌르듯, 특정 방향으로 행동을 유도하는 것. 금지하지 않는다. 강제하지 않는다. 그냥 기본값을 바꾸거나, 선택의 구조를 조정한다.


화장실에 파리 스티커를 붙이면 남성들이 정확하게 조준한다. 연금 가입을 '신청'이 아니라 '탈퇴'로 바꾸면 가입률이 급등한다.


AI 시대의 넛지는 규모가 다르다. 수십억 명을 대상으로, 개인별 맞춤형으로, 24시간 작동하는 넛지.


유튜브의 자동 재생은 넛지다. "다음 영상이 5초 후 재생됩니다." 멈추려면 행동해야 한다. 기본값은 '계속 보기'다.


쇼핑앱의 "이 상품을 본 사람들이 함께 구매한—"은 넛지다. 사회적 증거를 보여줘서 구매를 유도한다.


AI 어시스턴트의 "오늘 이걸 해보는 건 어때요?"는 넛지다. 거부해도 되지만, 제안이 기본값처럼 느껴진다.


하나하나는 사소하다. 하지만 하루에 수백 개의 넛지가 쌓이면, 당신의 하루는 — 자유로운 선택의 연속이 아니라 — 설계된 경로의 따라가기가 된다.



보이지 않을 때 가장 강력하다


푸코의 핵심 통찰은 이것이다:


권력은 보이지 않을 때 가장 강력하다.


왕이 "복종하라!"고 외치면, 사람들은 왕의 권력을 인식한다. 인식하면 저항할 수 있다.


하지만 권력이 일상의 구조에 녹아들면 — 학교의 시간표, 공장의 배치, 병원의 절차 — 사람들은 그것을 권력으로 인식하지 못한다. "원래 그런 거지"라고 생각한다. 저항의 대상이 되지 않는다.


알고리즘은 일상의 구조에 완전히 녹아들었다.


아침에 눈을 뜨면 AI가 브리핑한다. 뉴스는 알고리즘이 고른다. 출근 경로는 네비게이션이 정한다. 점심은 앱이 추천한다. 퇴근 후 볼 콘텐츠는 스트리밍이 고른다. 잠들기 전 마지막으로 보는 SNS 피드는 알고리즘이 배열한다.


이 모든 과정에서 당신은 '선택했다'고 느낀다. 하지만 선택지를 만든 건 당신이 아니다.


이것이 보이는가?


보이지 않는다면 — 푸코의 말대로 — 그것이 가장 강력하게 작동하고 있다는 뜻이다.



저항은 인식에서 시작된다


푸코의 철학은 비관적이라는 평을 자주 듣는다. 어디에나 권력이 있고, 어디에서도 자유로울 수 없다면 — 뭘 어쩌란 건가?


하지만 푸코는 희망도 남겼다.


"권력이 있는 곳에는 저항이 있다."


그리고 저항의 첫 걸음은 인식이다. 보이지 않는 권력을 보는 것. "원래 그런 거지"라고 넘기던 것에서 "잠깐, 이건 누가 설계한 거지?"라고 멈추는 것.


거창한 저항이 아니다. 실천은 소소하다.


첫째, "이거 내가 원한 건가?"를 하루에 세 번 물어라.


유튜브 영상을 틀 때. 쇼핑앱에서 결제 버튼을 누르기 전에. 뉴스 기사를 읽을 때. 잠깐 멈추고 물어봐라.


"이건 내가 찾은 건가, 알고리즘이 보여준 건가?"


매번 물을 필요 없다. 하루 세 번이면 된다. 이 질문을 던지는 순간, 자동 재생이 멈춘다. 물리적으로가 아니라 — 당신의 의식 안에서.


둘째, 기본값을 의식하라.


자동 재생을 끄는 건 30초면 된다. 알림을 끄는 것도. 추천을 무시하고 직접 검색하는 것도.


기본값은 당신이 설정하지 않은 것이다. 누군가 당신을 위해(혹은 당신을 이용하기 위해) 설정한 것이다. 기본값을 바꾸는 건 작은 행위지만, 구조에 대한 저항이다.


셋째, 가끔 알고리즘의 반대로 가라.


유튜브가 추천하지 않는 영상을 골라 봐라. 쇼핑앱이 추천하지 않는 가게에 가봐라. 뉴스앱이 보여주지 않는 관점의 기사를 찾아 읽어라.


불편할 것이다. 재미없을 수도 있다. 하지만 그 불편함이 당신이 설계된 경로를 벗어났다는 증거다.



필터 버블 안에서


알고리즘의 가장 위험한 효과는 필터 버블(filter bubble)이다.


AI가 당신의 취향을 학습하면, 당신이 좋아할 것만 보여준다. 좋아할 뉴스, 좋아할 영상, 좋아할 사람. 불쾌한 것, 다른 것, 낯선 것은 걸러진다. 거품 안에 갇힌다.


거품 안은 편하다. 모든 것이 내 취향이고, 내 생각이고, 내 편이다. 세상이 나와 같은 방향으로 돌아가는 것처럼 느껴진다.


그 느낌이 착각이다.


거품 바깥에는 당신과 다르게 생각하는 사람이 수십억 명 있다. 당신의 확신이 틀릴 수도 있다는 증거가 있다. 당신이 모르는 세계가 있다.


푸코라면 이렇게 말했을 것이다 — 필터 버블은 현대판 판옵티콘이다. 감시탑 대신 알고리즘이 있고, 원형 감옥 대신 피드가 있다. 수감자는 자기가 갇혀 있는지 모른다. 오히려 자유롭다고 느낀다. 세상이 넓어 보이니까. 선택지가 많아 보이니까.


하지만 그 넓음과 많음이 전부 설계된 것이라면?



자유의 조건


푸코의 세계관은 확실히 불편하다.


어디에나 권력이 있고, 자유란 늘 제한적이며, 완전한 해방은 환상이다. AI 시대에 이 진단은 더 정확해진다. 알고리즘은 삶의 거의 모든 영역에 침투했고, 그 영향력은 점점 커지고 있다.


하지만 나는 이렇게 읽는다.


푸코가 권력의 편재를 보여준 건, 우리를 절망시키기 위해서가 아니라 눈을 뜨게 하기 위해서다. 보이지 않는 것을 보는 순간, 보이지 않는 것의 힘이 약해진다.


판옵티콘의 수감자가 감시탑 안이 비어 있다는 걸 알면 — 감시의 효과가 사라진다. 알고리즘의 사용자가 "이건 내 선택이 아니라 추천이다"라는 걸 인식하면 — 추천의 힘이 약해진다.


완전한 자유는 없을 수 있다. 하지만 인식된 부자유는 인식되지 않은 부자유보다 낫다.


감옥에 갇혀 있다는 걸 모르는 사람은 탈출을 시도하지 않는다. 감옥에 갇혀 있다는 걸 아는 사람은 — 적어도 — 벽을 살핀다.


오늘 밤, 유튜브를 열기 전에 한 번만 물어봐라.


이 다음 영상은 내가 고른 건가, 알고리즘이 고른 건가?


그 질문을 던지는 순간, 판옵티콘에 균열이 간다.


작은 균열이다. 하지만 모든 탈출은 균열에서 시작된다.