다르게 작동하는 초변혁사회, 우리는 제대로 생존할 수 있는가?
연재를 시작하며 AI로 대표되는 혁신이 가져올 일상의 변화와, 그 속에서 흔들리는 기본권의 위기를 살펴보았다. 이제 시선을 조금만 밖으로 돌리면, 편의를 넘어 생존을 둘러싼 ‘기준’이 해체되고 재구성되는 장면과 마주하게 된다.
인공지능은 데이터로 세상을 배운다. 문제는 그 재료가 공정하지 않을 수 있다는 데 있다.
지금 거대언어모델(LLM)과 멀티모달모델(LMM)을 학습시키는 데이터는 압도적으로 영어 중심의 서구권, 그리고 거대 자본의 질서 위에 놓여 있다. 영어 텍스트와 백인 중심의 이미지, 시장 중심의 규범이 모델의 신경망을 채운다. 그 과정에서 아시아·아프리카·남미의 고유한 맥락은 ‘노이즈(Noise)’로 취급되거나, 필요에 따라 축소·왜곡되기도 하고, 소거되기도 한다. 다국어·다문화 데이터의 비중 자체가 작을 뿐 아니라, 필터링/정제 과정에서 맥락이 손실되기 쉽기 때문이다. 물론 언어 다양성을 위해 일부가 채택되기도 하지만, 그 채택의 기준과 비율, 그리고 해석의 틀은 여전히 불균형하다. 어떤 데이터가 선택되고 어떤 데이터가 배제되는지, 그 출처·선정 기준·제외 기준이 공개되지 않는다는 점이 가장 심각하다.
여기서 핵심은 단순히 “데이터가 많고 적다”가 아니다. 결국 누가, 어떤 규칙으로, 무엇을 ‘정상’과 ‘보편’으로 정의하느냐의 문제다. 20세기 제국주의가 총칼로 영토를 점령하고 문화를 이식했다면, 오늘날의 제국주의는 데이터와 모델을 통해 ‘무엇이 상식이고 무엇이 정답인지’를 규정한다. 아이들이 AI에게 질문하고 답을 얻는 과정은, 의도하든 의도하지 않든 거대 패권의 시각을 ‘정답’으로 학습시키는 경로가 될 수 있다.
이것은 기술 격차를 넘어, 초변혁사회에서 나타날 ‘신 식민지 개척’의 출발점일지도 모른다.
물론 이런 ‘독점’에 대한 우려와 저항이 없는 것은 아니다. 그러나 그 대응은 역설적으로, 공포로 포장된 또 다른 공격으로 전환되기도 한다.
중국과 러시아를 필두로 한 거대 국가들의 ‘AI 군비 경쟁’이 그 단면이다.
최근의 기술 경쟁은 기업 간 시장 점유율 싸움을 넘어섰다. 중국은 최고 지도부가 ‘신질생산력(新質生産力, New Quality Productive Forces)’을 강조하며 기술 자립을 국가 전략의 중심으로 끌어올렸고, 러시아 역시 이런 흐름에 맞서 ‘주권 AI(Sovereign AI)’를 구축하겠다고 공언해 왔다. 범국가적으로 인재와 자본, 데이터, 연산 자원을 동원하는 방식은 전시상황(Wartime)의 총동원 체제를 떠올리게 한다. 그들은 서구의 데이터 패권에 종속되지 않기 위해 독자적 모델 생태계를 구축하려 하고, 이는 단순한 산업 전략을 넘어 생존을 위한 ‘안보 전략’으로 재정의된다.
이 장면에서 2차 대전 당시 핵무기 개발을 추진했던 맨해튼 프로젝트의 그림자가 겹쳐 보인다.
자국어 기반 초거대 AI는 더 이상 단순한 산업 도구가 아니다. 상대의 담론과 정보 영향력을 방어하는 ‘방공망’이자, 유사시 상대를 교란·마비시킬 수 있는 ‘비대칭 전력’으로 기능한다. 시장의 자율성을 넘어 국가 생존 프레임 속에서 기술이 무기화되는 순간, AI 패권 경쟁은 ‘제2의 군국주의’로 미끄러질 위험을 품는다.
군국주의의 핵심은 통제다. 그리고 AI 시대의 통제는 눈에 띄지 않게, 그러나 강력하게 이루어진다.
우리는 AI가 스스로 생각해 답을 내놓는다고 착각하기 쉽지만, 그 밑바닥에는
개발자가 심어 놓은 시스템 프롬프트(System Prompt), 정책·기준,
그리고 조율(Alignment)을 위한 설계가 분명히 존재한다.
이 ‘보이지 않는 규칙’은 AI의 윤리 기준과 답변의 방향, 거부의 기준을 결정한다. 문제는 이 기준을 누가 어떤 절차로, 어떤 이해관계 위에서 정하느냐 이다. 소수의 빅테크 기업과 그들이 속한 강대국들의 윤리관이 ‘안전’과 ‘조율’이라는 이름으로 세계 이용자에게 사실상 표준처럼 작동할 수 있다. 그 결과 특정 견해나 사실, 현상이 과도하게 제한되거나, 특정 서사만 상대적으로 강화되는 방식으로 출력이 구조화될 가능성도 존재한다.
이를 지적하면 지금도 “알고리즘 오류”나
“정정 가능한 편향”으로
종종 설명하지만, 그게 전부는 아니다.
실수가 아닌, 설계의 결과이고, 정책의 결과이며,
권력 구조의 결과다.
보이지 않는 ‘사령관’이 수십억 명의 사고방식에
영향을 미칠 수 있는
실행력을 갖게 된 셈이다.
총성 한 번 없이도
무엇을 말할 수 있고 무엇을 말할 수 없는지,
무엇을 ‘정상’으로 간주할지를 조정할 수 있다면,
그것은 기술 문제가 아니라 통치권이자 지배력이다.
AI 기술을 폐기하고 과거로 돌아가자는 ‘신(新) 러다이트’를 주장하려는 것이 아니다.
30년 넘게 사람들이 어떻게 더 잘 살 수 있을지를 중심에 두고 세상을 바라봐 온 사람으로서,
지금 가장 두려운 것은 ‘무관심’이다.
거대한 기술 권력이 데이터를 흡수하고, 편향된 기준을 재생산하며, 국가 간 경쟁의 무기화 경로로 들어가고 있음에도
우리는—그리고 나조차—
“이게 된다고?”, “대단하다”, “편리하니까”라는 감탄 속에서
경계와 위기라는 감각을 쉽게 버리고 내려놓고 있다.
그저 한번 더 쓰는 데, 아는 데 급급한 채 살고 있다.
기술은 가치중립적이지 않다.
기술은 그것을 만드는 자본과 권력의 욕망, 그리고 사회가 허용한 규범을 고스란히 흡수한다.
우리가 편리함에 취해 이 기술의 ‘방향키’를 스스로 놓는 순간,
우리는 어느새 게임 속 NPC 마냥 입력값에 매달리는 부속품이 되고, 그 길로서 또 다른 식민지에 입장하게 된다.
제2의 군국주의는 폭력적 독재자의 얼굴이 아니라,
가장 스마트하고 가장 편리한 알고리즘의 얼굴로 우리 곁에 도착하고 있다.