이란 공습, 앤트로픽 그리고 ‘실리콘 핵’

2026년 2월에 일어난 일 #클로드퇴출 #AI무기화 #미국이란공습


클로드의 역설: 금지된 기술이 전장을 지배할 때


로이터통신은 3월 2일(현지시간) 미 국무부 내부 문건을 인용해 국무부의 자체 개발 챗봇 '스테이트챗'에 탑재된 AI 모델이 앤트로픽(Anthropic)의 클로드에서 오픈AI의 GPT-4.1로 교체되고 있다고 전헀다. 표면적으로는 기술 선택의 문제처럼 보이지만, 그 이면에는 훨씬 더 중대한 질문이 놓여 있다. 윤리적 통제와 군사적 효율성 중 무엇이 우선하는가라는 질문이다.


2026년 2월 27일 로이터 보도에 따르면, 트럼프 행정부는 혁신적인 AI 기업 앤트로픽(Anthropic)을 ‘공급망 리스크’로 규정하고 모든 정부 기관의 사용을 금지했다. 앤트로픽이 자사 AI가 대규모 감시와 완전 자율 살상 무기에 사용되지 않도록 하는 계약상 안전장치를 고수했기 때문이다.


앤트로픽의 조건은 두 가지였다.

미국 시민에 대한 대규모 감시에 사용 금지

인간 개입 없는 완전 자율 살상 무기 개발에 사용 금지

이 요구는 급진적 이상론이 아니라, 최소한의 리스크 관리였다.


트럼프 대통령은 Truth Social에 "앤트로픽의 좌파 미치광이들이 재앙적 실수를 저질렀다"고 올리며 전면 계약 중단을 지시했다. 국방장관 Pete Hegseth는 앤트로픽을 "국가 안보에 대한 공급망 리스크"로 공식 지정했다. 이 낙인은 그동안 적대 국가 공급자에게만 붙여왔던 것으로, 미국 기업에 적용된 것은 사상 처음이었다.


그러나 반전은 단 몇 시간 만에 일어났다. 금지 명령이 떨어진 직후 진행된 이란 공습 작전에서, 미 중부사령부(CENTCOM)는 아이러니하게도 클로드를 활용해 첩보를 분석하고 타격 목표를 식별했다. WSJ는 28일, 미군 중부사령부(CENTCOM)가 수집된 정보 평가, 목표물 식별, 전장 시뮬레이션 수행 등에 클로드를 활용했다고 보도했다. 군 관계자들은 클로드가 일부 기밀 시스템에 유일하게 통합된 AI였기 때문에 기술적 철수 자체가 단기간에는 불가능했다고 인정했다.


이는 단순한 정책의 혼선이 아니다. 현대전에서 AI가 이미 ‘대체 불가능한 인프라’가 되었음을 보여주는 상징적 사건이다.


전장이 증명한 ‘불가피성(Inevitable)’


인공지능 무기화가 ‘선택’이 아닌 ‘생존’의 문제가 된 결정적 계기는 2025년 6월의 ‘12일 전쟁(이스라엘-이란 분쟁)’이었다. 당시 이스라엘은 AI 타격 시스템을 투입해 인간 분석가라면 수개월이 걸렸을 수천 개의 표적을 단 며칠 만에 식별해냈다. 최근 2026년 2월 말, 미국과 이스라엘의 연합 작전으로 이란의 최고 지도자가 사망하고 핵 시설이 타격받는 과정에서도 AI는 0.1초 단위의 판단으로 방공망을 무력화했다.


전쟁의 속도가 인간의 인지 능력을 넘어서는 ‘하이퍼워(Hyperwar)’의 시대에, “상대보다 늦은 결정은 곧 패배”라는 공포가 지배하게 되었다. 이것은 기술적 죄수의 딜레마이자, 인간의 공포심이라는 본능에 의한 거부할 수 없는 운명(Inevitable)이다.


중요한 것은, 이 흐름이 트럼프 행정부만의 산물이 아니라는 점이다. 바이든 행정부 역시 '책임 있는 인간의 통제'를 국제 표준으로 내세우면서도 군사 AI 개발을 멈추지 않았다. 패권 경쟁의 구조적 압력 앞에서 어느 행정부도 자유롭지 않았다. 트럼프 행정부는 다만 그 위선의 껍데기마저 벗어던지고 '실전 적응성'을 노골적으로 전면에 내세웠을 뿐이다.


REAIM은 어디로?


인류가 손을 놓고 있었던 것은 아니다. 2023년 네덜란드 헤이그에서 시작된 REAIM(군사적 AI의 책임 있는 활용) 서밋은 전 세계에 경종을 울렸다. 2024년 9월 서울에서 열린 제2차 서밋은 한국, 네덜란드, 싱가포르, 케냐, 영국이 공동 주최하며 61개국이 '행동을 위한 청사진(Blueprint for Action)'에 서명했다.


REAIM의 세 가지 레이어는 다음과 같다.


기술적·절차적 견제: ‘생애주기 전반의 검토’

국제인도법(IHL)에 따라 새로운 무기를 도입할 때 합법성을 검토하는 추가 의정서 제36조를 AI에 엄격히 적용할 것을 요구하고, AI의 환각이나 편향을 막기 위한 성능 시험·평가 절차를 국제적으로 표준화하는 내용이다.


전략적 견제: ‘핵무기 통제권의 인간 전속’

AI가 아무리 발전하더라도 핵무기 사용 결정(Launch Decision)만큼은 반드시 '인간'만이 내려야 한다는 원칙이다


거버넌스 견제: ‘글로벌 감시 기구(GC REAIM)’의 출범

네덜란드 주도로 설립된 '군사적 AI에 관한 글로벌 위원회(Global Commission on REAIM)'가 각국의 이행 상황을 모니터링하는 체계다.



그러나 이 합의에는 태생적 한계가 있었다. Blueprint for Action은 법적 구속력이 없는 선언적 문서였다. 중국은 서명을 거부했고, 인도와 이스라엘도 참석만 했을 뿐 서명하지 않았다. 이미 REAIM이 진행되는 동안에도 가자와 우크라이나 전장에서 AI 무기 사용은 계속되고 있었다. 규범이 현실을 따라가지 못하는 구조적 한계는 미국의 정권 교체와 무관하게 내재되어 있었던 것이다.


2026년 현재, 그 한계는 더욱 적나라하게 드러나고 있다. 규범을 준수하려 노력했던 앤트로픽 같은 기업은 ‘좌익(Left-wing)’이라 비난받으며 축출되는 반면, 규제 없는 AI 배치를 약속한 기업들이 그 빈자리를 채우고 있다.


핵은 물리적 실체가 있어 IAEA(국제원자력기구)가 사찰할 수 있었지만, 소프트웨어인 AI는 훔치기 쉽고 전파도 순식간이다. 통제 기구의 사찰권이 알고리즘 내부까지 닿지 않는다면, AI 무기는 국가를 넘어 위험한 집단의 손에 ‘디지털 핵’으로 쥐어질 것이다.


2024년 서울 REAIM 서밋에서 61개국이 '핵 버튼만큼은 인공지능에 맡길 수 없다'는 행동 청사진(Blueprint for Action)에 서명한 지 불과 2년, 트럼프 행정부의 'AI 우선주의'는 이러한 다자간 합의를 비웃듯, 전장에서의 압도적 속도를 위해 AI의 자율성을 극대화하는 방향으로 NDS(국방전략)를 재편하고 있다. 사회학자 오번(William F. Ogburn)은 기술이 제도보다 항상 앞서 달린다고 경고했다. 그 '문화 지체'가 핵무기급 파괴력을 지닌 AI 분야에서 지금 일어나고 있는 것이다


감시 없는 기술은 재앙이다


트럼프 2기 정부의 등장은 AI 무기화라는 흐름에 가속도를 붙였다. 강대국들이 앞다투어 판도라의 상자를 여는 지금, 우리에게 필요한 것은 “쓰지 말자”는 도덕적 훈계가 아니다.


버니 샌더스 의원은 미국이 AI 혁명의 스피드와 스케일에 대해 아무 생각도 준비도 없이 달려간다고 비판한다. 데이터 센터 개발을 잠시 멈추자고도 한다. 아무도 듣지 않을 것이다. 우리가 멈춘 사이 중국이 달려가는데?라는 한 마디면 끝이다. AI를 군사력의 핵심으로 삼는 중국의 '지능화(Intelligentization)' 전략이 가시화되고, 그들이 앞서 나가는 상황에서 우리만 멈출 수 있느냐는 한 마디면 모든 논의는 종결된다.


과거 냉전의 정점에서 NPT(핵확산방지조약)를 이끌어냈던 인류의 지혜가 필요하다. 알고리즘의 자율성 범위를 기술적으로 검증하고, 최소한의 인간 개입을 보장하는 국제적 감시 체제는 이제 ‘선택’이 아닌 ‘종의 생존’을 위한 마지막 보루다. 기술의 우위를 점하기 전에, 우리는 기술의 통제권을 잃지 않을 방법부터 찾아야 한다.


AI기술이 어떻게 사용되는지에 대한 국제적 스크리닝 시스템이 필요하다. 과연 핵무기를 감시하듯 AI 기술을 감시할 수 있을까 회의적이지만 이 시대의 시민으로서 우리가 해야할 최소한의 책임이 있다. 비판적 감시자.

술레이만(Mustafa Suleyman)은 The Coming Wave의 말미에서 'The world needs you(세상은 당신을 필요로 한다)'라고 썼다.


*3월 3일 오늘 클로드는 몇 시간 정도 사용불능 상태였는데, 국방부와의 사건 이후 사용자가 몰려들어서 그렇다고 한다. 반면 OpenAI를 구독취소한 사람들이 급증했다고 한다.