추출 기계로서의 AI
영화 미스트(The Mist, 2008)의 결말은 충격적이다. 스포가 될까 봐 적을 순 없지만, 당시 영화를 보고 느꼈던 충격은 잊기 어려운 어떤 감정을 주는 것이었다. 영화는 어느 순간부터 퍼지는 안갯속에서 보이지 않는 괴물과 사투를 하는 사람들을 다루고 있다. 다양한 군상이 보이고, 보이지 않는 대상이 주는 공포와 절망감에 사람들이 어떻게 반응하는지를 보며 나라면 저 상황에서 어떻게 반응했을까를 고민하게 만드는 게 영화의 포인트이다. 중요한 것은 ‘보이지 않는’ 것이 주는 불안감이다. 무언가 위협을 하고 있으나, 언제 어디서 무엇이 나타날지를 알지 못할 때 인간은 가장 불안해진다.
미스트를 언급한 것은, 글 제목에서 알 수 있듯이 우리가 종종 AI를 미스트 속에 감추어진 괴물, 혹은 가상의 클라우드에 숨겨진 뇌와 같이 느끼게 되기 때문이다. 도처에서 AI를 개발하는 빅테크 기업들이 등장하고, 우리나라에는 (미국에 비해) 잘 소개되지 않다가 갑자기 등장하는 딥시크와 같은 중국의 AI 기술들이 등장해 새로운 군비경쟁의 척도로 여겨진다. 뉴스는 ANI(Artificial Narrow Intelligence, 약한 AI)를 넘어서 AGI(Artificial General Intelligence, 인공일반지능), ASI(Artificial Super Intelligence, 초인공지능)이 머지않은 미래에 곧 우리 앞에 다가올 것처럼 이야기한다(실제로 일론 머스크는 2026년에는 AGI가 등장할 것이라고 이야기하고, 2030년경에는 ASI가 등장할 것이라고 이야기한다. https://youtu.be/gzHygzSCJno?si=jHXSq7vlO7UApawP).
현재의 인공신경망, 머신러닝 기반의 기술 및 방향성을 통해 인공일반지능이나 초인공지능이 도달 가능한 것인지 여부는 불투명하지만(누가 미래를 알겠는가), 그것이 도달했을 때의 사회적, 인간적 맥락에서의 충격에 대해서는 이미 활발한 논의가 이루어지고 있다.
논의의 맥락은 다양하다. 철학적, 법적 맥락에서 AI에게 일종의 법인격을 부여하는 시대가 올 것인가라는 케케묵고 (다소) 황당한 주제부터, AI 기업에 대한 구체적인 규제 및 책임 소재를 어떻게 지게 할 것인가 하는 것까지, 이미 도래한 AI와 로봇의 발전상을 기반으로 인간의 상상력은 한계 없이 뻗어나간다.
1) 두 층위의 비판: 윤리·법의 문제와, 기술-삶의 문제
여기서 먼저 구분하고 싶은 것이 있다. AI를 둘러싼 문제는 크게 두 층위로 나뉜다.
(A) 기술 개발·운영의 윤리적·법적 문제: 노동권 보장 미흡, 저임금·장시간 노동, 책임 회피, 규제 공백, 불투명한 계약 구조 등. 이는 기업 운영과 제도 설계의 문제이며, 법과 정책으로 교정될 수 있는 영역이 있다.
(B) 기술 자체가 사회에 들어올 때 발생하는 인간 축출/소외의 문제: 효율과 최적화가 기준이 되면서, 인간의 숙련·판단·책임·의미가 재배치되고 “인간이 어떤 방식으로 주변화되는가”의 문제. 이는 단지 몇몇 기업의 비윤리적 운영을 고치면 자동으로 사라지지 않을 수도 있는 영역이다.
이 글은 (A)와 (B)를 같은 것으로 섞어 말하려는 것이 아니다. 오히려 둘을 구분한 뒤, 그럼에도 불구하고 왜 둘이 현실에서 서로 얽히는지를 보여주려 한다. 즉 “윤리적으로 운영된 AI라면 모든 문제가 해결된다”는 말이 왜 충분치 않은지, 그리고 “기술의 소외 비판만 하면 된다”는 말이 왜 현실을 놓치기 쉬운지를 동시에 드러내고자 한다.
2) 안갯속 괴물을 벗겨내기: AI는 하늘에서 떨어지지 않는다
보다 구체적으로, AI와 로봇 산업은 나의 곁에도 이미 와 있다. 회계 법인에서는 AI 사용으로 인해(물론 수요 예측 미스로 인한 공급 과잉이 주된 원인이겠으나) 수습조차 하지 못한 공인회계사가 상당하다는 뉴스가 나오는가 하면, 대형 로펌이든 중소형 로펌이든 수습 변호사를 채용하기보다는 리걸테크 기업의 AI 서비스를 구독하는 게 낫다고 판단하는 로펌들이 다수가 되어가고, 일론 머스크는 나서서 앞으로 5-10년 내에 의사가 대체될 것이기 때문에 의대에 가지 말라고 하기도 한다. AI로 인해 웹 디자이너나 개발자 채용이 급격하게 줄어든 것은 이미 오래된 일이다. 이에 대해서는 ‘시니어의 반격’이라는 말이 나오기까지 하는데, 많은 회사들이 이제 막 경력을 쌓거나 인턴 경험을 쌓아야 하는 청년층을 고용하여 주니어로 키우기보다는, AI를 활용할 수 있는 중견급 이상의 시니어들이 높아진 생산성을 바탕으로 일을 더 해내는 방식으로 인건비를 줄이고 있다.
이 모든 일이 너무도 빠르게 진행되고 있어서, 속도에 적응하지 못하는 사람은 대체되고 도태되는 것이 너무도 당연하게 여겨지는 상황, 무언가 찜찜하면서도 AI를 활용할 수 있는 실력이 있는 사람이 되면 해결될 거라는 말로 우리 자신을 채찍질할 수밖에 없는 상황, AI로 인해 노동이 덜어지기보다는 오히려 AI를 활용하여 더 많은 이윤을 창출하기 위해 (말 그대로) 쉼 없이 일하는 AI를 닮아가는 인간의 모습이 당혹스럽다. 실제로 AI는 자본가(그것이 유형 자본이든 신뢰나 인기와 같은 무형 자본이든)와 노동자, AI로 인한 대체가 쉬운 직업과 그렇지 않은 직업, AI를 활용하고 아직 AI가 제공하지 못하는 사고력을 지니고 있는 전문가와 그렇지 않은 전문가를 극명하게 가르면서 양극화를 심화시키는 방식으로 작동한다. 그리고 AI에 대체되지 않는 소수가 되는 것은 점점 더 어려워진다는 사실을 깨닫게 되기까지는 그리 오래 걸리지 않는다.
이쯤 되면 1회에서 말한 머스크의 ‘필연’ 서사가 다시 고개를 든다. 모든 사람들의 노동이 로봇과 AI의 결합이 만들어낸 생산력으로 대체되고, 노동은 선택사항이 되며, 화폐는 사라지고, 진정한 화폐는 에너지가 되는 세상으로 가는 것은 ‘필연적’인 것으로 보인다.
그러나 그 ‘필연’은 대가 없이 오지 않는다. 그리고 그 대가를 논하려면 먼저 안개를 걷어내야 한다. 우리는 AI를 안갯속 괴물로 상상할수록, 정작 AI가 무엇을 먹고 자라는지를 놓치기 쉽다. AI는 하늘에서 떨어지지 않는다. AI는 매우 세속적이고, 매우 물질적이며, 무엇보다 매우 인간적이다.
3) (A) 윤리·법의 층위: “보이지 않는 노동”은 운영상의 우발인가, 구조적 경향인가
책 <AI는 인간을 먹고 자란다>의 부제는 인공지능 신화에 가려진 보이지 않는 노동자들이다. 책은 AI를 단순히 인공지능, 즉 인간의 사고, 학습, 판단 능력을 모방하도록 설계된 기술로서 주어진 데이터를 기반으로 패턴을 학습하고, 이를 바탕으로 예측하거나 의사결정을 수행하는 자동화 시스템이라고 명명하기를 거부한다. 오히려 AI는 추출 기계(Extraction Machine)다. AI와 플랫폼은 인간의 노동, 데이터, 시간 등을 수집하고, 자산화하여 수익을 창출하는 구조적 시스템으로서, 노동자의 가치와 정보를 추출해 이윤으로 전환하는 디지털 자본주의의 핵심 장치이다.
여기서 말하는 문제는 단지 “어떤 기업이 나쁜 짓을 했다”는 수준에 머물지 않는다. 물론 법과 규제가 제대로 작동한다면, 저임금·장시간 노동, 불투명한 계약, 책임 회피 같은 문제는 교정될 수 있다(그러나 그런 규제는 초국가적으로 연결된 노동시장에 걸쳐져 이루어져야 하기에 그 실현은 거의 불가능에 가까운 듯 보인다). 그러나 더 불편한 질문은 남는다. 왜 그런 문제가 반복되는가. 속도와 점유율, 비용과 성능의 경쟁이 계속되는 한, ‘값싼 인간 노동’의 사용은 운영상의 우발이 아니라 구조적 유혹이 될 수 있다. 윤리와 법은 그 유혹을 제어해야 하지만, 현실은 대부분 그 반대 방향으로 흘러간다.
많은 사람들은 FSD가 많은 상황에서 웬만한 운전자보다 낫다, 인간이 실수할 확률보다 수많은 데이터로 학습한 FSD가 실수할 확률이 더 낮을 것 같다는 반응을 보였다. 그러나 FSD는 단순히 어딘가에서 뚝 떨어진 것이 아니라, 최저생계 수준 이하의 돈을 받고 하루 종일 도로 주행 영상과 사고 영상을 보면서 라벨링 작업을 하는 케냐 나이로비의 노동자의 노동을 통해 ‘학습’된다.
여기서 (A)의 질문은 명확해진다. 그 기술의 성능은 누구의 시간을 먹고 만들어졌는가. 누구의 노동이 “보이지 않게” 처리되어야만 가능한 가격과 속도였는가. 이 질문은 윤리적이고 법적인 질문이며, 규제와 책임 설계를 통해 분명히 다루어야 한다.
4) (B) 기술-삶의 층위: 윤리적 운영만으로 사라지지 않는 “압축”의 문제
그런데 여기서 멈추면, 핵심을 놓친다. (A)의 문제를 아무리 개선하더라도, 즉 라벨러에게 정당한 임금이 지급되고 노동권이 보장되며 규제가 강해지더라도, 우리는 여전히 (B)의 문제 앞에 서게 된다. 기술은 세계를 어떤 기준으로 “잘 작동한다”라고 말할 것인가를 정한다. 그리고 그 기준은 우리의 삶을 재배치한다.
2회에서 말했듯, 환원은 압축이다. “운전”이라는 행위를 FSD가 ‘잘한다’고 말하는 순간, 운전의 ‘잘함’은 특정 기준들로 재정의된다. 그 기준은 안전, 효율, 예측 가능성, 규칙 준수, 최적 경로 같은 것들일 수 있다. 문제는 그 기준이 달랐다는 게 아니라, 그 기준이 채택되는 순간 사라지는 것들이 있다는 데 있다. 운전이라는 행위에 포함돼 있던 몸의 감각, 책임의 체감, 위험을 감당하는 방식, 우발적 상황에서의 윤리적 판단, 그리고 “내가 운전한다”는 경험의 의미는 압축되거나 주변화될 수 있다.
요컨대 (B)의 질문은 이렇다. 기술이 ‘잘함’을 정의하는 순간, 인간의 어떤 층위가 삭제되는가. 그리고 그 삭제는 우리의 주의와 책임, 숙련과 의미를 어디로 옮겨놓는가. 이것은 기업이 착하게 운영되면 해결되는 성질의 문제와는 다르다.
5) AI가 나에게 빨대를 꽂게 둘 것인가
AI가 나에게 빨대를 꽂게 둘 것인가. 이 질문은 단지 “AI가 위험한가”라는 질문이 아니다. 더 정확히는 두 질문이 겹쳐진 형태다.
(1) 나는 내가 쓰는 AI가 누군가의 노동과 시간을 얼마나 추출하고 있는지, 그 과정에 대한 책임과 규제가 제대로 작동하는지 알고 있는가?
(2) 나는 AI가 세계를 환원·압축하는 방식 속에서 내가 중요하다고 느낄 권리, 내가 책임을 진다고 말할 권리, 내가 몸으로 익힌 숙련과 의미를 너무 쉽게 내어주고 있지는 않은가?
이 질문에 대한 답이 “AI를 쓰지 말자”일 필요는 없다. 현실적으로도 그럴 수 없다. 나조차도 AI를 활용하지 않고는 업무 수행이 어려워지고 있기 때문에 솔직히 돌파구를 찾는 게 쉽지가 않다. 그래서 문제는 사용 여부가 아니라 어떤 조건으로 사용하느냐다. 우리가 최소한 요구해야 할 것은 “더 똑똑한 모델”만이 아니라 “더 정직한 시스템”일지 모른다. 그 시스템은 자신이 무엇을 먹고 자라는지, 누구의 시간을 쓰는지, 어떤 책임을 아래로 전가하는지, 그리고 무엇을 압축하고 삭제하는지에 대해 말할 수 있어야 한다.
머스크가 AI의 발전은 막을 수 없고 거스를 수 없는 것이기에 그것을 그저 관전하기보다는 자신이 뛰어드는 것이 낫겠다는 마음으로 AI 산업에 뛰어들었다는 인터뷰를 본 적이 있다. 그러나 그가 어디에서도 FSD와 같은 컴퓨터 비전의 개발 과정에서, 이미 구축되어 있던 제국주의 시대 식민지 시절부터 이어저 온 노동환경과 전 지구적으로 깔려 있는 데이터센터들이 소모하는 어마어마한 물과 환경 에너지가 이용되고 있다는 점에 대해서 지적하거나 드러내어 보인 것을 본 적은 없다.
안갯속 괴물은 두렵다. 하지만 더 두려운 것은, 괴물을 괴물로만 상상한 채, 내 팔에 꽂힌 빨대를 ‘편리함’이라고 부르게 되는 것이다. 안개를 걷어내야 한다. 기술의 이름이 아니라, 기술이 우리에게 요구하는 것을 보아야 한다. 그리고 그 식단이 우리의 피와 살이라면, 우리는 적어도 한 번은 물어야 한다. 나는 AI가 나에게 빨대를 꽂게 둘 것인가(버니 샌더스의 관련 인터뷰를 보라 https://youtu.be/CLCJ6IqbHiU?si=7sPBTmmHZMUTxe1i).