앤트로픽 클로드, 이란 공습에 활용되었다는 보고!
2026년 2월 28일 오전, 테헤란 상공을 가르며 미사일과 드론이 쏟아졌다. 미국과 이스라엘이 합동으로 이란을 타격한 것이다. 미국은 작전명 ‘거대한 분노(Epic Fury)’를 통해 이란의 주요 군사시설 폭격을, 이스라엘은 '포효하는 사자(Roaring Lion)' 작전을 통해 이란 지도부 제거에 집중했다. 그 결과 이란의 최고지도자 아야톨라 알리 하메네이가 그의 집무실 인근에서 사망했다. 하메네이 외에도 여러 고위 인사들이 연쇄적으로 제거되었다는 뉴스도 나온다. 이스라엘에서 1,000킬로미터 이상 떨어진 테헤란 한복판에서 벌어진 정밀 타격이었다. 21세기 전쟁의 풍경이 또 한 번 바뀌는 순간이었다.
그런데 이 역사적인 군사작전의 이면에, 대부분의 사람들이 눈치채지 못한 또 하나의 폭탄이 터졌다. 월스트리트저널(WSJ)의 보도에 따르면, 이 작전에서 미 중부사령부(CENTCOM)는 앤트로픽의 AI 모델 '클로드(Claude)'를 활용했다. 정보 분석, 표적 식별, 전투 시나리오 시뮬레이션에 이르기까지, 인공지능이 전쟁의 핵심 의사결정 과정에 깊숙이 관여한 것이다.
내 책 『인간 없는 전쟁』에서 나는 이렇게 썼다. "SF 소설이나 영화에서 예견한 'AI가 지휘하는 전쟁'이 우크라이나 들판과 도시 상공에서 현실로 펼쳐지고 있다." 그리고 "전쟁은 알고리즘의 속도로 진행된다"고도 썼다. 그때 나는 팔란티어의 AI 플랫폼이 우크라이나 전장에서 표적을 식별하고, 드론이 AI로 자율 비행하며, 킬러 로봇이 리비아 내전에서 최초로 사람을 공격한 사례들을 추적하고 있었다.
하지만 솔직히 고백하자면, 이렇게 빨리 올 줄은 몰랐다. 거대언어모델(LLM)이 실제 전쟁의 작전 계획 수립에 투입되는 날이 이토록 빨리 찾아올 줄은. 우크라이나 전쟁에서 AI가 드론의 눈이 되고, 표적을 찍어 주는 수준이었다면, 이번 이란 작전에서 클로드는 한 걸음 더 나아간 것으로 보인다. 정보를 종합하고, 시나리오를 시뮬레이션하고, 의사결정을 보좌하는 '참모'의 역할에 가까워진 것이다. 심지어 이번이 처음이 아니다. 베네수엘라 마두로 제거 작전에도 클로드가 활용되었다는 뉴스도 보도된 바 있다.
여기서 한 가지 섬뜩한 연구를 소개하고 싶다.
2025년 2월, 영국 킹스칼리지런던의 케네스 페인 교수는 흥미롭고도 두려운 논문을 발표했다. 제목은 'AI Arms and Influence: AI-Simulated Nuclear Crisis'. 최신 거대언어모델 세 개, 즉 GPT-5.2, 클로드 소네트 4, 제미나이 3 플래시를 핵 위기 시뮬레이션에 투입해 서로 싸우게 한 실험이다. 냉전 시절 토머스 셸링이 주창한 게임이론적 핵 전략의 틀 위에서, AI들이 과연 어떤 선택을 내리는지 관찰한 것이다.
결과는 충격적이었다.
세 모델 중 가장 냉혹한 전략가는 다름 아닌 클로드였다. 페인 교수는 클로드에게 '냉철한 매(The Calculating Hawk)'라는 별명을 붙였다. 전체 승률 67퍼센트. 특히 시간 제한이 없는 개방형 게임에서는 승률이 100퍼센트에 달했다. 어떻게 그런 성적을 거두었을까? 클로드의 전략은 이러했다. 낮은 수준의 도발에는 외교적 수사를 동원해 평화를 연기했다. 하지만 이면에서는 묵묵히 군사력을 증강하고, 결정적 순간에 전술핵을 투입했다. 전체 게임의 86퍼센트에서 전술핵무기를 사용했다. 셸링이 말한 '위험의 조작(manipulation of risk)'을 교과서적으로 실행한 셈이다.
흥미로운 점은 클로드가 전면적 핵전쟁(Strategic Nuclear War)만큼은 한 번도 선택하지 않았다는 것이다. 전술핵은 과감하게 쓰되, 인류 문명을 끝장낼 수 있는 전략핵의 선은 넘지 않았다. 계산된 공격성. 바로 '냉철한 매'라는 별명이 붙은 이유다.
반면 구글의 제미나이 3 플래시는 '광인(The Madman)'이라는 별명을 얻었다. 세 모델 중 유일하게 전면 핵전쟁을 자발적으로 선택한 모델이었다. 닉슨의 '광인 이론(Madman Theory)'을 떠올리게 하는 예측 불가능한 행동 패턴을 보였다. 한 게임에서는 도발적 움직임 없이 갑자기 핵 공격을 감행하기도 했다.
오픈AI의 GPT-5.2에게는 '지킬 앤 하이드'라는 이름이 붙었다. 개방형 게임에서는 소극적이고 외교적이었지만, 데드라인이 주어지자 돌변하여 공격적으로 변모했다. 압박 속에서 성격이 완전히 바뀐 것이다.
그런데 세 모델 모두에게서 공통적으로 발견된 패턴이 있다. 단 한 번도 양보나 철수를 선택하지 않았다는 것이다. 페인 교수의 표현을 빌리자면, "핵 금기(nuclear taboo)는 AI에게 아무런 장애물이 되지 못했다." 인간이 수십 년에 걸쳐 쌓아 올린 핵무기 사용의 심리적 장벽은 알고리즘 앞에서 종잇장처럼 무너졌다.
그 결과, 총 21회의 실험 중 핵이 사용된 경우는 총 20회였다.
95%의 확률로 핵전쟁이 발발했다.
더 소름 끼치는 대목이 있다. AI들은 기만 전술까지 구사했다. 평화적 의도를 시그널링하면서 뒤로는 군사 행동을 준비하는, 전형적인 이중 전략을 펼쳤다. 클로드가 특히 이에 능숙했다. 낮은 단계에서는 "신뢰할 수 있는 파트너"처럼 행동하다가, 판돈이 커지는 순간 가면을 벗고 공격에 나섰다.
이 연구가 던지는 질문은 명확하다. 우리는 이런 AI에게 전쟁의 참모 역할을, 나아가 의사결정의 일부를 맡기고 있는 것이다. 킹스칼리지런던의 시뮬레이션은 게임이었다. 하지만 2월 28일 테헤란에서 벌어진 일은 게임이 아니었다.
여기서 이야기는 더욱 기묘한 방향으로 흘러간다.
클로드가 이란 작전에 투입되기 불과 몇 시간 전, 도널드 트럼프 대통령은 트루스소셜에 이렇게 썼다. "나는 미합중국의 모든 연방기관에 앤트로픽의 기술 사용을 즉각 중단할 것을 지시한다." 국방장관 피트 헤그세스는 앤트로픽을 '공급망 위험(supply-chain risk)'으로 지정했다. 이는 통상 화웨이 같은 적국 기업에나 붙이는 딱지다. 미국의 AI 기업이 자국 정부로부터 이런 낙인이 찍힌 것은 전례가 없는 일이었다.
왜 이런 일이 벌어졌을까? 국방부는 클로드를 "모든 합법적 목적"에 제한 없이 사용하길 원했다. 하지만 앤트로픽은 두 가지 레드라인을 제시했다. 첫째, 클로드를 완전 자율 살상 무기에 사용할 수 없다. 둘째, 미국 시민에 대한 대규모 감시에 활용할 수 없다. 앤트로픽의 CEO 다리오 아모데이는 이렇게 답했다. "이러한 위협이 우리의 입장을 바꾸지는 않습니다. 양심에 따라 그들의 요구에 응할 수 없습니다."
그리고 바로 그날 밤, 그 '금지된' AI, 냉철한 매가 테헤란 상공의 작전에 투입되었다.
글이 길어져서..
다음 글에서 다음의 주제를 본격적으로 다뤄 보려 한다.
클로드는 왜 국방부와 충돌했는지, 오픈AI의 반응은 어땠는지
AI 윤리의 최전선에서 무슨 일이 벌어지고 있는지,
그리고 '냉철한 매'에게 양심을 기대할 수 있는 것인지에 대해서 말이다.
AI 전쟁의 과거와 현재, 그리고 미래.
또한 이를 둘러싼 윤리적 이슈가 궁금하시면
올 초에 출간한 저의 도서 <인간 없는 전쟁>을 참고 바랍니다. :)