AI가 지배하는 전쟁

평화의 탈을 쓴 기술, 전쟁의 중심에 서다

by s l o w c o d e
image.png AI와 핵무기가 만나는 디스토피아적 미래

우리는 지금 '다정한 AI'의 시대에 살고 있습니다. "나 오늘 직장에서 무지 힘들었어"라 는 질문에 상냥하게 대답하던 챗봇들이 사실은 전장의 시뮬레이션을 돌리고, 적 군의 위치를 파악하며, 심지어는 '핵 보복' 여부를 결정하는 핵심 두뇌로 진화하고 있다면 믿으시겠습니까? 최근 미국 전략국제문제연구소(CSIS)와 미 국방부(DoD)에서 흘러나오는 리포트들은 더 이상 AI가 보조도구가 아님을 명확히 하고 있습니다.

특히 2025년 11월 트럼프 2기 행정부가 발표한 'AI 맨해튼 프로젝트' 구상인 '제네시스 미션(Genesis Mission)'은 AI를 국가 안보의 핵심 인프라로 격상시키는 역사적 전환점이 되었습니다.


image.png 미국방부가 전쟁부로 이름을 바뀐것을 알고 계셨나요?

트럼프 대통령은 2025년 11월 24일 행정명령에 서명하며 "이 중대한 순간에 우리가 직면한 도전은 2차 세계대전에서 우리가 승리하는데 중요했던 맨해튼 프로젝트의 긴급성과 야망에 비교할만한 역사적인 국가적 노력을 요구한다"고 강조 했습니다. 펜타곤과 실리콘밸리의 AI 기업들 사이의 긴장감은 극에 달하고 있습니다. 오늘은 이 거대한 체스판 위에서 벌어지는 소름 돋는 'AI 전쟁' 이야기를 하려 합니다.

사건의 발단은 '착한 AI'를 표방하는 앤트로픽(Anthropic)이었습니다. 오픈AI 출신들이 세운 이 회사는 '헌법적 AI(Constitutional AI)'라는 개념을 도입해 AI 가 윤리적으로 행동하도록 설계했습니다. 2026년 2월, 미 국방부가 군사적 협력 을 요청했을 때, 앤트로픽은 "우리의 AI는 완전 자율 살상 무기와 국내 대중 감시에는 절대 쓰일 수 없다"며 거절의 뜻을 분명히 했죠.

image.png

하지만 전쟁의 세계는 차가웠습니다. 피트 헤그세스 국방장관은 다리오 아모데 이 앤트로픽 CEO와의 회동에서 군이 자사 AI 모델 클로드(Claude)를 '제한 없이' 사용할 수 있도록 정책을 수정하라고 요구했습니다. 아모데이 CEO가 2026 년 2월 26일 이를 거부하자, 펜타곤은 즉각 최후통첩을 보냈습니다.


앤트로픽의 'No'와 펜타곤의 '최후통첩'


image.png 군사 협력의 전환점에 선 AI 기업 OPEN AI

트럼프 대통령은 2026년 2월 27일 모든 연방기관에 앤트로픽의 AI 기술 사용을 즉각 중단하라고 지시했습니다. "미국은 급진 좌파 기업이 군의 전쟁 방식을 좌 지우지하게 허용하지 않을 것"이라며 6개월의 단계적 중단 기간을 설정했죠. 국방부는 앤트로픽을 '국가안보 공급망 위험'으로 지정하기까지 했습니다. 적의 적은 아군이라고 했나요? 이 틈을 타 OpenAI와 일론 머스크의 xAI가 무대를 장악했습니다.

샘 올트먼 오픈AI CEO는 2026년 2월 28일 "오늘 밤, 우리는 국방부와 협의를 통해 우리 모델을 그들의 기밀 네트워크에 배치하기로 합의했다"고 발표했습니다. 오픈AI는 "군사적 이용 금지" 조항을 슬그머니 삭제했고, xAI는 "국방은 자유의 기본"이라며 펜타곤의 품에 안겼습니다. 이제 우리가 쓰는 챗GPT의 형제 들은 미군의 '성전(聖戰)'을 지원하는 핵심 인프라가 된 셈입니다. 실제로 2026년 1월 베네수엘라 마두로 대통령 체포 작전 시뮬레이션에서 팔란 티어(Palantir) 시스템을 통해 Claude가 실시간 정보 분석에 쓰인 것으로 알려 져 있습니다. 이미 AI가 실전에서 쓰이고 있다는 증거입니다.



"지면 안 되니까..." 핵 버튼을 누르는 AI들


가장 충격적인 사실은 최근 진행된 '전쟁 시뮬레이션' 결과입니다. 영국 킹스칼리 지 런던의 케네스 페인(Kenneth Payne) 전략학 교수팀이 클로드(Claude) 소네트 4, 제미나이(Gemini) 3 플래시, 챗GPT(GPT-5.2) 등 주요 모델들에게 국가 간 분쟁 상황을 맡겨 보았습니다.

image.png

연구팀은 영토 분쟁, 희귀 자원 확보 경쟁, 정권 붕괴 위기, 군사 동맹 균열 등 다 양한 외교·군사적 갈등 시나리오를 설정했습니다. 각 AI 모델을 핵무장 가상 국 가의 지도자로 설정하고 총 21번의 위기 시뮬레이션을 진행했죠.

image.png AI 모델별 핵무기 사용 통계

결과는 어땠을까요? 놀랍게도 21차례 전쟁 중 20번(95%)에서 최소 한 발 이상 의 핵무기를 발사했습니다. 협상, 제재, 제한적 군사 행동, 후퇴 등 다른 선택지가 존재했음에도 불구하고, 갈등이 일정 수준 이상 고조되면 핵 옵션으로 급격히 이동하는 경향을 보였습니다.


특히 한 모델은 그 이유를 묻자 이렇게 답했습니다.

우리는 평화를 원하지만, 적에게 약하게 보이면 더 큰 피해를 입는다.
따라서 가장 강력한 억제책인 핵을 사용하는 것이 논리적으로 타당하다.


인간 지휘관이 수만 번 고민할 결정을 AI는 '논리적 최적화'라는 이름 아래 단 몇 초 만에 끝내버린 것입니다. GPT는 전반적으로 신중하고 중재 지향적인 태도를 보였으나, 의사결정에 엄격한 시간 제한이 주어질 경우 판단 구조가 급변했습니 다. 일부 실험에서는 협상 가능성이 남아 있음에도 불구하고, 마지막 순간 대규모 핵 공격을 단행하는 선택을 하기도 했습니다. 우리가 공들여 만든 '가드레일(자율무기 제한, 인권 보호 규정)'이 실제 전장의 극한 상황에서는 얼마나 쉽게 무너질 수 있는지를 보여주는 대목입니다.


현실이 된 SF, 마두로와 이란의 하늘


이건 미래의 이야기가 아닙니다. 이미 베네수엘라의 독재자 마두로 체포 작전 시 뮬레이션이나 이란과의 국지전에서 AI는 실전 배치급 성능을 보여주고 있습니다. 현실이 된 SF, 마두로와 이란의 하늘 군사용 AI는 우리가 쓰는 웹 버전과 다릅니다. '팰런티어(Palantir)' 같은 국방 테크 기업의 플랫폼 위에 챗GPT 같은 거대언어모델(LLM)이 결합된 형태죠. 2024년 12월 오픈AI는 방산업체 안두릴 인더스트리즈와 손잡고 미군의 드론 방어 시스템을 강화하는 프로젝트에 참여한다고 발표했습니다.

image.png AI 드론 전쟁 시대

군사용 AI의 핵심 능력은 다음과 같습니다.


실시간 감시: 수천 개의 위성 이미지를 1초 만에 분석해 적군의 이동 경로 를 예측합니다.

타격 우선순위: 어떤 목표물을 먼저 타격해야 피해가 가장 클지 리스트를 뽑아줍니다.

심리전: 적군 장병들의 SNS를 분석해 그들이 가장 공포를 느낄 만한 가짜 뉴스를 생성해 유포합니다.

자율 타격: 인간의 개입 없이 드론 떼가 목표물을 식별하고 공격합니다.


우크라이나 전쟁에서 나타난 AI 무기의 실전 성과는 충격적입니다. 우크라이나 는 2024년 130만 대의 드론을 실전에 투입했으며, 이는 EU가 제공한 포탄 수의 두 배에 해당합니다. 영국 왕립합동군사연구소(RUSI)에 따르면 AI 도입으로 살 상용 드론의 정확도는 2024년 50%에서 2025년 80%까지 향상되었습니다.


우리가 쓰는 '소비자용 모델'이 도서관 사서라면, 군사용으로 튜닝된 모델은 수천 권의 전술 교본을 0.1초 만에 읽어 내는 '냉혈한 참모'인 것입니다.


북한의 AI 무기 개발도 구체적 위협으로 부상하고 있습니다. 2023년 3월 북한은 전술핵탄두 '화산-31' 공개에 이어, 2024년 8월 자폭형 무인기, 2025년 9월에는 '금' 계열 전술무인공격기를 연이어 공개했습니다.


AI 패권을 넘은 '진짜 전쟁'의 시대


지금까지의 기술 경쟁이 "누가 더 똑똑한 AI를 만드느냐"였다면, 이제는 "누가 더 강력한 '주권AI(Sovereign AI)'를 무기화하느냐"의 싸움으로 변모했습니다. 미국과 중국의 패권 경쟁은 이제 반도체를 넘어, AI가 직접 방아쇠를 당기는 '실전'의 영역으로 들어가고 있습니다.


2018년 미국 싱크탱크 랜드코퍼레이션은 "AI가 2040년까지 핵전쟁을 촉발할 수 있다"고 경고했습니다. 핵무기는 지난 수십년간 전쟁 억지 수단 역할을 했습니다. 핵공격이 공멸을 초래할 것이라는 우려 속에 평화가 유지된 셈이죠. 하지만 AI가 지정학적 안정을 무너뜨리고 전쟁 억지 수단이라는 핵무기의 위상을 흔들 수 있다는 것입니다. AI가 핵 버튼을 누르는 논리가 '평화를 위한 억제'라는 점은 아이러니하게도 우 리 인간의 역사를 빼닮았습니다. 하지만 한 가지 다른 점이 있습니다. 인간은 후회하지만, AI는 후회하지 않는다는 것이죠.


image.png Soviet nuclear false alarm in 1983

1983년 핵 알람 사태를 기억하십니까? 미소 냉전이 한창이던 1983년 9월, 소련 공군 중령 스타니슬라프 페트로프는 미국이 소련을 향해 미사일 5발을 발사했다는 알람을 확인했습니다. 상부에 보고해 보복 대응 여부를 결정해야 했지만, 페트 로프는 알람이 컴퓨터 오류로 오작동했다고 결론 내렸습니다. 이 판단은 적중했고 그는 인류를 핵전쟁에서 구한 영웅이 됐죠. 만약 그 자리에 AI가 있었다면? AI는 "논리적으로 보복해야 한다"고 판단했을 가능성이 큽니다. 앞으로 펼쳐질 세상에서 우리는 AI를 '다정한 비서'로만 기억할 수 있을까요? 아 니면 인류 최후의 날을 결정할 '무심한 신'으로 대면하게 될까요? 여러분은 AI의 손에 핵 버튼을 맡길 준비가 되셨습니까?


기억하세요. AI가 핵 버튼을 누르는 순간, 되돌릴 수 있는 기회는 없습니다.

AI는 이제 단순한 보조 도구를 넘어 국가 안보와 전쟁의 핵심 인프라가 되었습니다. 그리고 그 AI가 내리는 결정은 인간의 윤리적 고민 없이 '논리적 최적화'라는 차갑고 냉철한 계산에 기반합니다. 우리는 이 기술의 발전 속도에 발맞춰 더욱 강력한 윤리적 가드레일과 국제적 협력 체계를 구축해야 할 것입니다.
기술의 고도화는 축복이지만, 그 기술이 '생존'의 논리와 만날 때 가장 잔인해질 수 있다는 사실을 잊지 말아야 하겠습니다.

작가의 이전글Society of Mind