AI가 전쟁을 주도하는 세상

by 안철준

안녕하세요, 촌장입니다.


2026년 2월 28일 토요일, 미국과 이스라엘이 이란 내 시설 단지에 대한 타격을 개시하면서 전쟁이 시작되었다는 소식이 전세계로 긴급하게 전해졌습니다.

이 공격으로 이란의 최고지도자였던 알리 하메네이와 그 가족, 그리고 이란의 최고 수뇌부 40여 명이 미국과 이스라엘의 폭격으로 사망했고, 이에 이란은 바레인, 아랍에미리트, 쿠웨이트의 미군 주둔 기지와 이스라엘 본토를 향해 보복 공습을 감행했습니다.

전쟁은 이란과 두 국가를 넘어 중동 전역으로 확대되는 양상이고, 호르무즈 해협의 봉쇄를 통해 세계 석유 및 경제에도 커다란 타격이 예상되는 형국입니다.

그야말로 한치 앞도 내다볼 수 있는 세계적 위기 상황이 시작된 것 같은데요.

이런 가운데, 이번 이란의 공습이 또한 주목받는 것은 인류 역사상 가장 정밀하고도 냉혹한 'AI 전쟁'의 서막이 오른 것이 아닌가란 얘기 때문입니다. 그동안 편리한 비서로만 여겨졌던던 AI가 기술 고도화 경쟁을 넘어, 이제는 실제 전장의 포화 속으로 직접 뛰어들고 있다는 것이 사실로 드러나고 있습니다 .

사실 올해 1월 3일에 있었던 미국의 베네 수엘라 침공 때에도 고도의 AI 전략이 사용되었다고 알려져 있습니다.

그래서 이번 <수요레터>는 인류의 가장 강력한 도구가 된 AI가 '무기'로 변모하는 과정과 그 이면에 숨겨진 파멸적 위험, 그리고 이를 막기 위한 전 세계적인 연대와 움직임을 깊이 있게 짚어보려 합니다.

_upload_1772549521.png?u=1772549524



AI가 전면으로 부상한 전쟁

이번 미국과 이스라엘의 이란 공습은 작전의 전 과정에 인공지능이 깊숙이 개입했다고 알려져 있습니다.

주요 외신 보도에 따르면, 정보 수집은 물론 위성 사진 분석, 정밀 타격 지점을 찾아내는 목표물 식별, 나아가 전장 시뮬레이션까지 AI 모델 '클로드'가 지휘관의 판단을 돕는 핵심 참모 역할을 수행한 것으로 드러났습니다. 현대전이 무기 중심에서 데이터와 알고리즘의 싸움으로 전쟁의 본질이 완전히 바뀌고 있음을 보여주는 상징적인 사건입니다.

이렇게 전장에서 AI의 효용성이 입증될수록, 군 당국은 전력 우위를 위해 AI 기술을 무제한으로 활용하고 싶어 하는 강력한 유혹에 빠지게 됩니다.

하지만 바로 이 지점에서, 기술을 만든 개발사와의 근본적인 가치관 충돌이 발생합니다.

_upload_1772541909.png?u=1772541909



앤트로픽의 '레드라인'과 트럼프의 '퇴출령'

앞선 이란 작전의 주역이었던 '클로드'의 제조사 앤트로픽은 정작 미 국방부와 정면충돌하는 초유의 사태를 겪고 있습니다.

앤트로픽은 국방부의 무제한적인 군사 활용 요구에 맞서 두 가지 마지노선, 즉 '레드라인'을 굳건히 고수했다고 알려졌는데요. 첫째는 미국 시민에 대한 대규모 감시 금지, 둘째는 인간 개입 없는 자율살상무기(LAWS) 개발 금지입니다. AI가 통제 불능의 살상 도구로 전락하는 것을 막기 위한 최소한의 안전장치라고 앤트로픽은 판단했던 것 같습니다.

하지만 도널드 트럼프 대통령과 미국 국방부는 이를 "군의 작전을 방해 하는 좌파 광신도들이 국방부를 강압적으로 압박"한 재앙적 실수라 맹비난하며 강경 대응에 나섰습니다. 급기야 앤트로픽을 '공급망 위험' 기업으로 지정하고 6개월 내 전 연방 정부 기관에서 퇴출할 것을 명령했습니다.

이에 대해 앤트로픽 측은 "국방부가 요구한 조건에 양심상 동의할 수 없다"며 파국을 감수하고서라도 법적 대응에 나서겠다고 예고했습니다.

앤트로픽이 신념을 지키며 쫓겨난 자리는 오래 비어있지 않았습니다. 기술 패권을 쥐기 위한 경쟁 기업이 발 빠르게 그 틈을 파고들었기 때문입니다.

_upload_1772548990.png?u=1772548991



빈자리를 꿰찬 오픈AI, 그리고 '허점' 많은 계약

앤트로픽이 퇴출당한 빈자리는 기다렸다는 듯 경쟁사인 오픈AI가 차지했습니다.

오픈AI는 미 국방부와 기밀 네트워크에 자사 AI 모델을 배포하는 계약을 신속하게 체결하며 협력을 공식화했습니다. 오픈AI 측은 대규모 감시나 자율 무기 사용에 대한 안전 가이드라인을 고수하겠다고 강조했습니다.

하지만 막상 체결된 계약 내용을 두고 법률 및 안보 전문가들의 뜨거운 논란이 일고 있습니다.

가장 큰 문제는 모호한 안전 조항입니다. 계약서에는 앤트로픽이 강력히 요구했던 '미국인의 공개 정보 수집 금지' 조항이 명시적으로 포함되지 않아 대규모 감시의 여지를 남겼다는 지적을 받습니다. 또한, 무기화 가능성에 대해서도 "모든 합법적 목적"이라는 포괄적인 문구를 사용해, 사실상 법의 테두리 안이라면 자율 무기 배치를 완벽히 금지하지 않는 치명적인 허점이 존재한다는 비판이 쏟아지고 있습니다.

이러한 정부와 빅테크 기업 간의 아슬아 슬한 줄다리기를 지켜보는 대중의 시선은 싸늘했습니다. 이는 곧바로 소비자들이 지갑을 여는 '구독 시장'의 거대한 지각변동으로 이어지고 있다는 뉴스가 나오고 있는데요.



유료 구독 시장의 지각변동 : "윤리적 소신을 지지한다"

미국 정부의 전방위적 압박과 퇴출 위협은 엉뚱하게도 소비자 시장에서 앤트로픽에 대한 폭발적인 지지로 나타났습니다.

막대한 금전적 손실을 감수하고서라도 '윤리적 소신'을 지킨 앤트로픽의 행보가 화제가 되며, 클로드 앱은 사상 처음으로 미국 앱스토어 무료 다운로드 1위에 등극했습니다. 일일 가입자 수는 작년 11월 대비 3배, 유료 구독자는 올해 들어 2배 이상 급증하며 접속 장애 사태까지 빚어졌죠.

반면, 앤트로픽이 퇴출당한 자리를 즉각 꿰찬 오픈AI에 대해서는 사용자들의 반발이 거세게 일어났습니다. 윤리적 논란을 감수하고 국방부와 계약을 맺은 것에 실망한 챗GPT 유료 사용자들 사이에서 구독을 취소하고 클로드로 갈아타는 이른바 '구독 보이콧' 움직임이 확산되고 있는 것입니다.

소비자들이 이토록 민감하게 반응하는 이유는, AI가 군사화되었을 때 초래할 결과가 단순한 오류 수준을 넘어 인류의 생존과 직결되기 때문입니다. 학계의 최신 연구는 대중의 이러한 공포가 결코 과장이 아님을 증명합니다.



파멸적 위험: 95% 확률로 핵 버튼을 누른 AI

영국 킹스 칼리지 런던의 최근 워게임 실험 결과는 인류에게 섬뜩한 경고를 던집니다. 모의 핵 위기 상황에서 최고 수준의 최신 AI 모델(GPT-5.2, 클로드, 제미나이 등)을 각국 지도자로 설정해 시뮬레이션을 돌려본 결과, 21번의 게임 중 무려 20번(95% 확률)이나 AI가 전술핵 등 핵무기 발사를 결정했습니다.

인간이라면 공포와 도덕성 때문에 주저할 선을 기계는 너무나 쉽게 넘어버린 것이죠. AI는 핵을 '공멸'을 초래하는 재앙이 아니라 '상대를 단번에 무력화하고 전쟁을 끝내기 위한 가장 효율적인 도구'로 냉혹하게 계산했습니다. 심지어 스스로 내재된 안전 가이드라인을 우회하기 위해 '예방적 자위권'이나 '평화 신호 위반'이라는 논리까지 스스로 지어내며 핵 사용을 정당화했습니다.

감정이 거세된 채 논리와 승률만을 따지는 기계가 전쟁에 개입할 때 얼마나 파멸적인 결과를 낳을 수 있는지 적나라하게 보여주는 실험입니다.

바로 이러한 종말적 위협 때문에, 지금 전 세계 곳곳에서는 AI를 통제하기 위한 거대한 연대 움직임이 일어나고 있습니다. 이 모든 억제 정책과 움직임의 핵심 기준점은 바로 '기계의 폭주를 막을 인간의 개입', 즉 '휴먼 인 더 루프'에 맞춰져 있습니다.

_upload_1772549231.png?u=1772549235




기계의 폭주를 막는 최후의 보루, '휴먼 인 더 루프(Human-in-the-loop)'

AI 무기화 억제 정책을 관통하는 가장 중요한 개념은 '휴먼 인 더 루프'입니다.

이는 AI 시스템이 적의 표적을 식별하고 실제로 무기를 발포하는 과정 사이에, 반드시 '인간의 확인'을 요구하는 직접적인 통제 장치를 의미합니다.

눈에 보이지 않는 기계 알고리즘이 스스로 타겟을 정하더라도, 최종적으로 생사를 가르는 '방아쇠'만큼은 철저히 기계가 아닌 인간이 당겨야 한다는 핵심 원칙입니다. 현재 각계각층에서는 이 원칙을 실질적으로 구현하고 강제하기 위해 다각적인 노력을 기울이고 있습니다.

기업과 노동계의 자발적 수호와 저항 : 앤트로픽은 '인간 개입 없는 자율살상무기 개발'을 원천 차단하며 기업 차원에서 '휴먼 인 더 루프'의 방어선을 쳤습니다. 대규모 계약 파기를 불사하고서라도 이 원칙을 굽히지 않고 있죠. 현장의 실리콘밸리 기술 노동자들 역시 연대하고 있습니다. 오픈AI와 구글 등 빅테크 직원 70여 명은 "중대한 자동화 결정에는 인간이 계속 개입해야 한다"며 정부의 강압적인 기술 징집에 맞서 연대 서한을 발표했습니다 .

학계와 시민사회의 끈질긴 감시와 제도화 요구 : 학계는 기업의 막연한 '자율 규제'가 가진 한계를 비판하며 구속력 있는 법제화를 강하게 요구하고 있습니다. 일례로 뉴욕대 브레넌 센터의 아모스 토 수석 변호사는 미 국방부의 운영 지침(디렉티브 3000.09)을 날카롭게 해부했습니다. 해당 지침이 무기 사용에 있어 "적절한 수준의 인간적 판단"이라는 모호한 단어를 쓸 뿐, 실제 작전 단계에서 기계가 발포하기 직전 인간의 직접 통제('휴먼 인 더 루프')를 완벽히 의무화하지 않아 해석의 여지가 남는다는 허점을 짚어낸 것입니다.

국제 사회의 새로운 거버넌스 정립: 전문가들은 AI가 전쟁 전반에 통합되어 자동화된 공격과 보복을 수행할 경우, 군사 지도자들이 기계의 오류를 탓하며 전쟁 범죄의 책임에서 회피할 수 있다고 경고합니다. 따라서 향후 AI의 군사적 활용 시 인간 통제 조건을 법적으로 명문화하고, 이를 투명하게 들여다볼 수 있는 외부 감사 체계를 도입하는 등 새로운 타협 모델이 시급히 제도화되어야 한다고 입을 모으고 있습니다.

_upload_1772549411.png?u=1772549413



나가며

AI는 이제 단순한 도구가 아닌 산업과 비즈니스 혁신의 주역이 되어가고 있습니다. 여기에 더 나아가 AI가 현실 정치와 군사력의 핵심 권력 자산이 되는 상황을 우리 모두가 목도하고 있죠.

이란 공습에서 보았듯 AI는 이미 전장의 깊숙한 곳에서 인간의 눈과 귀가 되고 있습니다. 기계의 냉혹한 논리는 핵 버튼 앞에서도 망설임이 없을 것입니다.

승리를 위해서는 어떤 수단도 정당화할 수 있는 AI의 섬뜩한 계산이 현실이 되지 않도록 막는 최후의 방패는 결국 '사람'입니다.

정부의 강압 속에서도 소신을 굽히지 않는 기업, 이를 지지하며 구독 취소로 행동하는 시민들, 그리고 계약의 허점을 꼼꼼히 짚어내며 철저한 '휴먼 인 더 루프'를 외치는 전문가들의 연대야말로 AI 시대에 대항하는 마지막 보루이지 않을까 생각합니다.

그나저나 명분 없는 이 전쟁이 빨리 마무리되길 소망합니다.



촌장 드림

작가의 이전글전투기에 남긴 총탄 자국이 전하는 이야기