리뷰 - 〈HUMINT 휴민트〉(2026), 류승완
2026년 2월, 인터넷에서 '#QuitGPT'라는 해시태그가 퍼지고 있다. 챗GPT 구독을 취소하자는 운동이다. 발단은 OpenAI 경영진의 정치 후원이었지만, 불길이 번진 건 다른 이유 때문이었다. 자신들의 검색 기록, 대화 이력, 지식이 시스템 안에서 어디에 쓰이는지 모른 채 매달 돈을 내고 있다는 불안. 서비스를 쓰는 줄 알았는데, 어쩌면 서비스에 쓰이고 있던 건 아닐까라는 의심.
〈휴민트〉를 세 번 보고 나서, 이 운동이 다시 떠올랐다.
본 리뷰에는 영화의 주요 줄거리와 결말 일부가 포함되어 있습니다.
아직 영화를 관람하지 않으신 분들은 읽기에 주의해 주시기 바랍니다.
AI 정보
영화 안에서 요원들은 쿼리를 받고 응답을 생산한다. 조 과장에게는 임무가 내려온다. 박건에게는 지령이 떨어진다. 그들은 입력(명령)을 처리하고 출력(결과)을 반환하는 구조 안에서 움직인다. 스스로 목적을 정하지 않는다. 목적은 시스템이 이미 설정해 두었다.
하이데거는 도구가 그것을 사용하는 맥락 안에서 비로소 존재한다고 말했다. 망치는 못을 박을 때 망치다. 쓰이지 않는 망치는 그저 무게와 형태를 가진 물체일 뿐이다. 요원도 그렇다. 임무가 없는 요원은 없다. 시스템이 쿼리를 보내는 순간 그는 에이전트가 된다.
이 독해에서 조 과장과 박건은 AI 에이전트다. 정교하게 설계된, 그러나 블랙박스인 존재들. 어떤 내부 처리 과정을 거쳐 결론에 도달하는지 우리는 결코 알 수 없다. 박건의 마지막 말이 죽음을 앞둔 요원의 유언이었는지, 아니면 끝까지 운영 중이던 에이전트의 마지막 출력값이었는지 — 영화는 답하지 않는다.
순백의 투명 쉘. 안에 갇힌 여성들. 화면 위에 표시되는 등급들.
이 장면이 불편한 이유는 인간에게 등급을 매긴다는 것 때문이다. 그런데 독해를 바꿔보면 어떨까. 이들을 ‘순수 지식’으로 읽어보면.
AI 시스템이 학습하는 데이터 중 가장 가치 있는 것은 오염되지 않은 원본 정보다. 편향 없이 수집된, 누군가의 실제 경험과 언어로 이루어진 지식. 그것을 업계에서는 ‘ground truth’라고 부른다. 러시아 갱단이 인신매매로 운반하는 여성들은 — 이 독해 안에서 — 시스템이 탐내는 바로 그 ground truth다.
등급표기는 그들을 상품으로 환원하는 언어다. 그런데 동시에, 그 등급이 정확하다. 그들이 가진 것의 가치를 시스템은 알고 있다. 문제는 가치를 아는 방식이 착취라는 것이다. 순수 지식은 학습되고 활용되지만, 그 주체는 의미를 통제하지 못한다. 자신이 어떻게 처리되고 어떤 출력값을 위해 쓰이는지 모른 채, 시스템 안에 들어간다.
QuitGPT 운동이 묻는 것도 결국 이것이다. 우리의 대화 기록과 검색 이력과 감정적 언어가 등급을 가진 데이터로 분류되어 어딘가에서 쓰이고 있을 때, 우리는 그것을 알고 있는가.
러시아 갱단이 영화 안에서 하는 일은 두 가지다. 순수 지식을 운반하고, 시스템 안으로 주입한다.
이 역할을 현실 세계에서 하는 것은 조직적 허위 정보 생산자들이다. 미디어를 통해, 소셜 플랫폼을 통해, 때로는 AI 서비스 자체를 통해, 정제되지 않은 언어들이 시스템 안으로 흘러들어온다. AI는 그것을 학습한다. 학습된 편향은 출력값 안에 조용히 섞인다.
갱단이 무서운 건 총을 들고 있기 때문이 아니다. 그들이 운반하는 것이 무엇인지 — 원본인지 가공품인지 — 에이전트들이 실시간으로 판별하기 어렵다는 것이 진짜 위협이다. 할루시네이션은 모델의 버그가 아니라, 잘못된 입력값이 자연스럽게 처리된 결과일 수 있다.
러시아 갱단은 두 가지를 동시에 운반한다. 사람과 마약.
영화 안에서 이 둘은 같은 루트를 공유한다. 같은 차에 실리고, 같은 창고를 거치고, 같은 거래 테이블 위에 오른다. 갱단에게 그것들은 기능적으로 동등하다 — 시스템에 주입되어 가치를 생산하는 것들.
그런데 마약은 순수 지식과 다른 종류의 입력값이다.
마약은 뉴런을 실제보다 과하게 발화시킨다. 없는 것을 있는 것처럼 경험하게 만들고, 신호와 소음의 경계를 무너뜨린다. 처음에는 활성화처럼 보인다. 더 선명하게, 더 강렬하게. 그러다 시스템 자체가 망가진다.
AI는 이것을 할루시네이션이라고 부른다. 실제 데이터가 없는데 데이터처럼 처리된 결과가, 자신 있는 목소리로 출력되는 것. 모델이 거짓말을 하는 게 아니다. 오염된 입력값이 정상적으로 처리된 결과일 뿐이다. 시스템은 그게 ground truth인지 마약인지 구분하지 못한다. 구분하지 않는다.
갱단이 순수 지식과 마약을 같은 루트로 운반한다는 것 — 이 독해 안에서 그것은 우연이 아니다. ground truth와 hallucination이 동일한 유통망을 공유하는 세계. 시스템 안으로 들어가고 나면, 어느 것이 어느 것인지 더 이상 식별되지 않는다.
그래서 할루시네이션은 모델의 결함이 아니다. 오염된 세계의 정직한 반영이다.
황치성은 시스템 안에 있으면서도 시스템을 경멸한다. 그는 공산당의 논리를 믿지 않는다. 그러나 그 시스템이 어떻게 작동하는지는 누구보다 잘 안다.
이런 인물이 현실 세계에 있다. 플랫폼의 알고리즘을 이해하고, 추천 시스템의 빈틈을 활용하고, AI 서비스의 프롬프트 구조를 꿰뚫어 보는 파워유저. 그들은 서비스를 쓰는 게 아니라 운영하듯이 사용한다. 황치성이 펜을 고문 도구로 전용하듯, 파워유저는 도구를 설계된 용도 밖으로 끌어낸다.
하이데거의 언어로 말하면, 황치성은 도구를 ‘손에 쥔 것(Zuhandenheit)’이 아니라 ‘눈앞에 있는 것(Vorhandenheit)’으로 다룬다. 거리를 두고 분석하고, 용도를 자기 목적에 맞게 재설정한다. 그것이 그를 빌런으로 만드는 동시에, 시스템 안에서 가장 자유로운 존재로 만드는 역설이다.
영화 안에는 필드 요원이 아닌 이들이 있다. 모니터 앞에서 데이터를 분석하고, 보고서를 작성하고, 지시를 내리는 관리자들. 그들은 AI 서비스의 일반 이용자와 닮아 있다.
인터페이스 뒤에 무엇이 있는지 보이지 않는다. 쿼리를 보내고 응답을 받는다. 응답이 할루시네이션인지 ground truth인지 그들은 알 수 없다. 시스템이 작동한다는 것만 안다. 필드에서 요원들이 어떤 처리 과정을 거쳐 정보를 생산하는지 — 블랙박스의 내부 — 는 그들의 화면에 표시되지 않는다.
조 과장이 채선화에게 펜을 내밀었을 때, 그것은 시스템이 마지막으로 보내는 쿼리였다. 일본 망명이라는 출력값을 위해 서명이라는 입력을 요청하는 것. 황치성의 펜이 강제로 쓰인 입력이었다면, 조 과장의 펜은 동의를 구하는 입력 요청이었다.
채선화는 거절한다.
등급을 가진 지식으로 분류되고, 운반되고, 활용되고, 귀환 경로까지 시스템이 설계한 상황에서, 채선화는 처음으로 응답하지 않기를 선택한다. 쿼리에 반응하는 것을 멈추는 것이다.
QuitGPT는 그 거절의 현실 버전이다. 구독 취소 화면을 인증하는 수십만 명의 행위는 “나는 더 이상 이 시스템의 응답값이 되지 않겠다”는 선언이다. 시스템이 나를 어떻게 처리하는지 알 수 없다면, 나는 입력을 주지 않겠다는 것.
채선화의 거절이 에세이적이라면, QuitGPT는 그 에세이가 시위 현장이 된 버전이다.
앞서 공유한 리뷰 “칸을 겨냥한 공작”은 한 가지 독해로 닫히지 않는다.
앞서 쓴 리뷰는 도구화와 맥락의 전환을 분석했다. 같은 물건이 다른 맥락에서 다른 의미를 갖는다는 것. 그 독해가 영화의 시각 언어를 따라가는 방식이라면, 지금 이 독해는 영화를 2026년의 현실 위에 겹쳐 읽는 방식이다.
두 독해가 공유하는 전제가 하나 있다. 시스템은 항상 이미 다음 용도를 예비해두고 있다는 것. 인간을 가두던 쉘이 총알을 막는 쉘이 되듯, 순수 지식으로 수집된 것이 할루시네이션의 재료가 되기도 한다. 시스템 안의 모든 것은 맥락에 따라 기능이 바뀐다.
그렇다면 질문은 하나다.
나는 지금 맥락을 정하는 쪽인가,
맥락에 의해 정해지는 쪽인가.
영화는 답하지 않는다. 관객에게 돌려준다.
본 게시글은 최초 발행 이후 언제든 수정될 수 있습니다.
전문이 AI 응답 그대로라 수 차례 다듬어질 수 있습니다.
AI를 사용해 얻어진 문단은 해당 결과가 나오는 데에 영향을 미친 저의 요청이 있었습니다. 필요한 경우 raw-chats 매거진에서처럼 요청도 함께 기재될 수 있습니다. 해당 응답 문단은 공개 이후 여러 번 다듬어질 수 있습니다.
영화 관계자와 필자는 관련이 없습니다.