12. 우리는 얼마나 쉽게 내어주나 (6)

감시자본주의의 세계 속에서

by 대치동 중학생

6장. 후일담: 감시자본주의가 가장 또렷해지는 순간들


6.1 원형 감옥이 남긴 한 가지 발명: “보고 있지 않아도, 보이는 느낌”

쿠바의 한 섬에는, 멀리서 보면 공장이나 스포츠 경기장처럼 보이는 둥근 건물들이 줄지어 서 있다. 가까이 다가가면 이곳이 과거 “모범 교도소”로 불리던 프레시디오 모델로(Presidio Modelo)였음을 알게 되는데, 건물은 원형으로 설계되어 중앙의 감시 지점에서 주변을 한 번에 내려다볼 수 있게 구성되어 있다. 이 구조가 흥미로운 이유는 감시의 핵심이 카메라 성능이나 인력의 밀도가 아니라, 관찰이 가능하다는 전제가 사람의 행동을 스스로 정돈하게 만든다는 점을 매우 단순한 형태로 보여주기 때문이다. 감시가 실제로 얼마나 자주 이루어지는지와 무관하게, 관찰 가능성이 ‘환경’으로 깔리는 순간, 사람은 자기 행동을 관리하는 쪽으로 조금씩 이동한다.


이 장면은 디지털 세계의 동의 절차와도 닮아 있다. 쿠키 배너와 권한 요청은 법과 제도의 얼굴을 하고 있지만, 실제 사용자 경험에서 더 큰 힘을 갖는 것은 문구의 논리보다 반복되는 관문이 만드는 습관이다. 버튼을 누르는 행위 자체가 중요해서가 아니라, “넘어가는 방식”이 하루의 리듬이 되는 순간부터, 선택은 성찰이라기보다 동선이 된다. 원형 감옥이 남긴 유산이 있다면, 그것은 감시가 반드시 강압적일 필요 없이, 형식과 배치만으로도 삶을 조정할 수 있다는 발명일지도 모른다.

Presidio_Modelo.JPG Presidio Modelo

6.2 임신을 알아챈 할인쿠폰: “맞춘 게 아니라, 찔러서 흔든다”

한때 미국에서 널리 퍼진 유명한 이야기가 있다. 대형 유통업체 타깃(Target)이 고객의 구매 패턴을 분석해 임신 가능성을 추정하고, 육아용품 쿠폰을 보냈다는 일화다. 이 이야기가 오래 살아남는 이유는 “기업이 초능력처럼 임신을 맞혔다”는 기괴함 때문이 아니라, 훨씬 더 평범하고 현실적인 이유 때문이다. 타깃이 사용한 것은 의료 기록 같은 특수 정보가 아니라, 생활의 사소한 구매 흔적이었고, 그 흔적들이 확률적으로 결합되면서 “가능성”이 만들어졌다는 점이 핵심이기 때문이다.


더 흥미로운 지점은 그 다음이다. 타깃 내부에서는, 임신 관련 쿠폰을 너무 노골적으로 보내면 고객이 불쾌함을 느낄 수 있음을 깨닫고, 임신·출산 쿠폰을 다른 잡동사니 쿠폰들과 섞어 ‘자연스러운 우편물’처럼 보이게 하는 방식으로 조정했다는 설명이 따라붙는다. 이 대목이 감시자본주의의 정수를 보여준다. 예측이 완벽해서가 아니라, 예측이 조용히 생활에 섞여 들어가며 행동을 한 번 흔들어 보는 방식으로 작동할 때, 데이터는 충분히 강해진다. 맞히는 것보다, 흐름을 건드리는 것이 더 중요해지는 순간이다.


6.3 “4417749번의 얼굴”: 익명 처리된 검색어가 사람을 드러낸 사건

2006년 여름, 인터넷 회사 AOL은 연구 목적이라며 방대한 검색 기록을 공개했다. 공개된 파일에는 3개월 동안 65만 명이 남긴 2천만 건 이상의 검색어가 포함돼 있었고, 각 이용자는 이름 대신 숫자 ID로 표시되어 “익명”처럼 보였다. 그러나 바로 그 “숫자 ID로 묶인 연속된 검색어”가 문제였다. 한 사람이 무엇을 검색했는지를 시간순으로 따라가면, 주소·가족·취미·질병처럼 정체성을 암시하는 단서가 수두룩하게 남기 마련이기 때문이다. 결과적으로 언론은 특정 검색자(‘AOL Searcher No. 4417749’)를 실제 인물로 역추적해 보도했고, 익명 데이터가 얼마나 쉽게 얼굴을 얻는지 보여주는 상징적 사건이 되었다.


이 이야기가 재미있으면서도 무서운 이유는, 해킹이나 범죄가 없어도 사고가 발생했다는 데 있다. “익명화”라는 말은 종종 마법 주문처럼 쓰이지만, 실제로는 연속성이 남아 있는 순간 약해진다. 검색 기록은 단일 문장 하나만 보면 의미가 희미하지만, 묶이면 자서전이 된다. 감시자본주의의 중요한 재료가 바로 이런 “연속성 있는 흔적”이라는 점에서, AOL 사건은 기술의 문제가 아니라 데이터의 형식이 문제를 만드는 방식에 대한 교본처럼 남았다.

Magnifying_glass_CC0.svg.png

6.4 넷플릭스가 “익명 영화 취향”을 공개했을 때 벌어진 일

넷플릭스는 과거 추천 알고리즘 성능을 겨루는 “Netflix Prize”를 열면서, 연구자들에게 방대한 영화 평점 데이터를 제공한 적이 있다. 문제는 그 데이터가 이름을 지운 “익명”이었다는 점이 아니라, 익명임에도 불구하고 다른 공개 데이터와 결합하면 개인을 식별할 수 있음이 연구로 제시되었다는 점이다. Narayanan과 Shmatikov은 넷플릭스 평점 데이터가 외부에 공개된 취향 정보(예: 다른 사이트의 평점 흔적)와 연결될 경우 특정 개인의 레코드를 찾아낼 수 있음을 보였고, 그 과정에서 사소한 배경지식만으로도 개인 기록을 재식별할 수 있다는 메시지를 던졌다.


이 꼭지가 흥미로운 이유는, 영화 취향이라는 것이 겉보기에는 무해한 잡담처럼 보이기 때문이다. 그러나 취향은 생각보다 고유하고, 고유한 것은 결합될수록 지문처럼 된다. 감시자본주의가 “민감 정보”만을 노린다고 상상하면 분석이 자주 빗나가는데, 실제로는 민감하지 않아 보이는 조각들이 대량으로 쌓이고 연결되면서 민감해지는 경우가 훨씬 흔하다.


6.5 달리기 앱이 군사기지를 밝혀버린 날: “열지도는 거짓말을 잘 못 한다”

2018년 무렵, 운동 기록 앱 스트라바(Strava)가 공개한 전 세계 활동 “열지도(heatmap)”가 뜻밖의 논란을 낳았다. 사람들의 달리기·걷기 경로가 밝은 선으로 누적되는 이 지도에서, 분쟁 지역이나 사막 한가운데 밝게 빛나는 선들이 나타났고, 그 선들이 군사기지의 위치와 동선을 드러낼 수 있다는 지적이 이어졌다. 이 사건은, 개별 기록이 공개되었기 때문이라기보다 집계된 패턴이 말해버리는 것이 얼마나 많은지를 보여준다. 누군가의 하루 운동은 평범하지만, 수천 명의 운동이 겹치면 지형이 된다.


감시자본주의의 이야깃거리로서 이 사건이 매력적인 이유는, 악당이 필요 없다는 데 있다. 이용자들은 자랑하거나 기록하려고 앱을 썼고, 회사는 멋진 시각화를 제공했으며, 그 결과는 예기치 않게 “민감한 지도”가 되어버렸다. 여기에서 핵심은 데이터의 선의·악의가 아니라, 집계·시각화라는 형식이 만들어내는 외부효과다.

BlackMarble20161km.jpg


6.6 “친구의 친구”까지 따라온 퀴즈: 케임브리지 애널리티카의 핵심 반전

케임브리지 애널리티카 사건을 정치 스캔들로만 기억하면, 감시자본주의의 구조가 흐려지기 쉽다. 이 사건의 진짜 반전은 데이터가 모인 방식에 있다. 소수의 사람들이 페이스북에서 성격 테스트 앱을 설치했지만, 당시 플랫폼 구조에서는 그 사용자들의 친구 데이터까지 수집될 수 있었고, 그 결과 데이터는 눈덩이처럼 불어났다. 이 “친구의 친구” 구조가 흥미로운 이유는, 개인의 동의가 개인에게만 닿지 않고 관계망을 타고 퍼지면서, 동의가 곧 네트워크 외부효과가 되는 모습을 보여주기 때문이다. 즉, 어떤 사람은 앱을 설치하지 않았음에도, 친구가 설치했다는 이유로 데이터 흐름에 편입될 수 있었다는 점이 사건의 구조적 충격을 만든다.


이후 영국 정보위원회(ICO)의 조사 보고서 등은 정치 과정에서의 데이터 분석 활용과 그 위험을 다루면서, 데이터가 어떤 경로로 수집·사용되는지가 민주적 절차의 신뢰와도 연결될 수 있음을 강조했다. 감시자본주의의 언어로 번역하면, “개인화 광고”의 기술은 때로 “개인화 정치 메시지”의 기술과 같은 배관을 공유할 수 있고, 그 배관은 관계망을 통해 확장되기 쉽다는 이야기다.

Ballot_Box_Silhouette.svg.png


6.7 보너스 꼭지: ‘좋아요 버튼’은 왜 웹 전체를 플랫폼으로 만든다고 불렸나

페이스북의 “좋아요(Like) 버튼”은 오랫동안 단순한 공유 기능처럼 보였지만, 학계에서는 이 버튼이 웹의 많은 페이지에 삽입되면서 다양한 데이터 흐름을 만들고 웹을 동시에 분산시키면서도 다시 중앙화하는 메커니즘에 주목해 왔다. 또한 “좋아요 버튼이 실제로 눌리지 않더라도 쿠키 등을 통해 추적 가능성을 만든다”는 문제 제기가 학술 논문에서 정리된 바도 있다. 이 꼭지가 재미있는 이유는, 감시가 거대한 검은 장치가 아니라 작은 버튼의 복제로 확장될 수 있다는 점을 보여주기 때문이다. 웹 페이지가 늘어날수록, 버튼은 늘고, 버튼이 늘수록, 플랫폼의 촉수도 늘어난다.


덧붙이는 이야기 - AI가 일상이 된 뒤, 감시자본주의는 어디로 옮겨 갔나


스마트폰 시대의 감시자본주의가 “무엇을 눌렀는가”를 중심으로 돌아갔다면, AI 이용이 보편화된 뒤의 감시자본주의는 “무엇을 하려 했는가”라는 질문을 더 자주 품게 만든다. 피드와 검색창이 남기던 흔적이 클릭·체류·스크롤 같은 행동 로그였다면, 대화형 인터페이스가 남기는 흔적은 목적과 맥락, 제약조건과 우선순위가 섞인 문장이라는 점에서, 같은 데이터화라도 전혀 다른 질감을 낳기 때문이다. 이 변화는 기술이 더 똑똑해졌다는 사실에서보다, 사용자가 하루를 정리하고 결정을 대신 맡기는 창구가 한 곳으로 모이면서, 데이터의 흐름이 ‘터미널’ 중심으로 재배치되는 상황을 반영한다.


대화 내용을 저장하면 다음 응답이 더 자연스러워지고, 선호를 기억하면 반복 설명이 줄어들며, 일정·메일·문서와 연결하면 실제 행동까지 이어지는 자동화가 가능해진다는 설명은 사용자에게 즉시 체감되는 편익을 제공한다. 다만 이런 편익은, 동의의 층위를 얇게 만드는 방향으로 작용하기 보다는, 반대로 두껍게 만들 가능성도 함께 갖는데, 왜냐하면 과거의 쿠키 배너가 한 번의 관문이었다면, AI 시대의 관문은 기록의 저장, 기억의 활성화, 외부 서비스 연결, 작업 실행 권한, 그리고 로그의 보관 기간처럼 여러 층위로 분화되어, 각각이 따로따로 작은 ‘예/아니오’를 요구하기 쉽기 때문이다. 이때 사용자는 가장 편리한 기능부터 순서대로 허용하는 경향을 갖는데, 허용이 누적되는 과정이 곧 데이터화의 범위를 점진적으로 확장시키는 경로가 될 수 있다는 점에서, 동의는 단일한 결정보다 ‘상태의 축적’으로 경험되기 시작한다. 물론, 사용자가 인식하지 못하는 상태에서 그 동의는 스며들듯이 완결되기도 할 것이다.


AI 시대의 또 다른 변화는, 데이터가 수집되는 방식이 더 직접적이기보다 더 미묘해질 수 있다는 점에서 나타난다. 검색은 짧은 키워드로 이루어지는 경우가 많았지만, 대화는 문제의 배경과 불안, 시간표와 인간관계, 그리고 우선순위를 한 문장에 섞어 넣는 방식으로 진행되기 쉬우며, 이러한 정보는 사용자가 따로 입력하지 않더라도 대화의 진행을 위해 자연스럽게 제공되는 경향을 갖는다. 다시 말해, 데이터가 “빼앗기는” 장면보다 “도움을 받는 과정에서 스며드는” 장면이 늘어날 수 있는데, 이때 남는 것은 클릭 로그가 아니라 의도와 맥락의 흔적이며, 감시자본주의가 선호했던 예측의 재료가 한층 더 ‘입체적인 형태’로 주어질 가능성이 생긴다. 클릭이 행동을 말해주는 방식이었다면, 대화는 행동의 이유를 말해주는 방식이 되기 쉬우며, 이유가 정교해질수록 예측은 더 조용한 개입으로 환류될 수 있다. AI가 똑똑해질수록, 감시도 마찬가지로 똑똑해진다.


여기에서 가장 재미있는 반전은, AI가 감시의 도구이기만 한 것이 아니라, 동시에 감시를 “가려주는 막”이 될 수도 있다는 점이다. 피드 시대에는 수많은 사이트와 앱을 사용자가 직접 돌아다니면서, 각각의 추적 구조와 마주쳤다면, 대화형 시스템이 탐색과 요약을 대신하는 중개자로 작동할수록, 사용자는 오히려 다양한 추적 장치와 직접 접촉하는 빈도를 줄일 수 있다. 즉 터미널이 중앙화될 때, 데이터가 한 곳으로 더 많이 모일 위험이 생기지만, 역설적으로 분산된 추적을 줄이는 완충 효과가 나타날 가능성도 동시에 열린다. 문제는 기술의 선악이 아니라, 어느 쪽으로 설계가 수렴하는지이며, 특히 거부·보류·부분 허용 같은 선택지가 얼마나 대칭적으로 제공되는지, 기본값이 어디에 놓이는지, 거부가 실제로 불이익으로 전환되는지 같은 형식의 문제로 귀결되기 쉽다.


AI 시대의 감시자본주의가 흥미로운 이유는, 결국 ‘콘텐츠’가 아니라 ‘형식’이 더 강하게 남는 장면이 늘어날 수 있기 때문이다. 대화형 시스템은 설득 문구를 길게 늘어놓지 않아도, 허용했을 때의 체감 편익을 곧바로 보여줄 수 있고, 허용하지 않았을 때의 마찰을 은근히 증가시킬 수도 있으며, 무엇보다 사용자가 매일 같은 창구로 돌아오게 만드는 반복성을 갖는다. 그러한 반복성이 쌓일수록, 동의는 어느 날의 결단이 아니라 일상의 리듬이 되고, 리듬이 된 동의는 태도의 표현이라기보다 비용 구조에 대한 적응으로 굳어질 가능성이 커진다.


따라서 AI가 보편화된 시대의 감시자본주의를 이해하는 가장 생산적인 길은, 대화형 터미널이 무엇을 말하게 하는지가 아니라, 무엇을 “허용하게” 만들며, 무엇을 “기본으로 유지하게” 만들고, 무엇을 “귀찮아서 그냥 넘어가게” 만드는지의 형식을 관찰하는 데에 있다. 이 관찰은 거창한 폭로가 아니라, 하루에 몇 번 반복되는 작은 관문을 기록하는 습관에서 시작될 수 있는데, 그 작은 관문들이 결국 어떤 집단에서 더 강하게 작동하는지, 그리고 위험 인식이 강화되어도 형식의 효과가 얼마나 유지되는지를 확인하려면, 앞선 장에서 제시했던 최소 모델 실험이 AI 환경으로 확장되는 방식이 가장 자연스러운 다음 단계가 된다.

image.png


작가의 이전글11. 우리는 얼마나 쉽게 내어주나 (5)