Trump Halts AI Autonomous Weapons Compan
AI 자율무기 안트로픽 제동 트럼프 ‘공급망 차단’ 구글 오픈AI 반격
베네수엘라 공격에 협조했던 안트로픽이 이란 공격을 앞두고 ‘클로드’ 사용에 제동을 거자 트럼프 체제가 ‘정부 공급망 위험’ 지정으로 차단 조치했고 구글과 오픈AI 직원 604명이 정부 조치에 반격 성명을 서명했다.
펜타곤과 인트로픽 간의 싸움은 인공지능 모델의 기술적 세부사항과 군의 사용 방식을 둘러싼 계약 분쟁이지만 트럼프 대통령이 27일 모든 연방 기관에 Anthropic이 만든 인공지능 기술 사용을 중단하라고 트루스소셜을 통해 명령하고 13분 후, 헤그세스 국방장관은 X에 AI 회사 안트로픽을 "국가 안보에 대한 공급망 위험"으로 지정하면서, 미군과 협력하는 어떤 계약자나 공급업체도 Anthropic과 거래할 수 없다고 밝혔다.
펜타곤과 인공지능 기업 Anthropic 간의 싸움은 표면적으로는 기밀 시스템에서 인공지능 사용에 관한 2억 달러 계약에 관한 것이고, 양측은 펜타곤이 정한 27일 오후 5시 1분에 계약 조건에 관한 최종 마감시한을 두고 격렬하게 충돌했다.
헤그세스 장관은 만약 회사가 이날 오후 5시 1분까지 합의하지 못할 경우, 국방생산법을 발동해 군이 자사 모델을 사용하도록 강제하고 회사를 공급망 위험으로 규정할 것이라고 발표했고, Anthropic은정부 계약을 전장에서 인공지능이 어떻게 사용될지에 대해 자사 인공지능이 “미국인에 대한 대규모 감시나 인간이 개입하지 않은 자율 무기에 배치되는 것을 원하지 않는다”고 것에 대한 보장을 요구했다.
헤그세스 장관의 X 발표 전문은 다음과 같다.
<이번 주 Anthropic은 오만과 배신에 대한 마스터 클래스를 선보였으며, 미국 정부나 국방부와 거래하지 말아야 할 법에 대한 교과서적인 사례를 보여줬다.
우리의 입장은 한 번도 흔들리지 않았고 앞으로도 흔들리지 않을 것이다: 전쟁부는 공화국 방어를 위한 모든 합법적인 목적을 위해 Anthropic의 모델에 완전하고 제한 없는 접근권을 가져야 한다.
대신, @AnthropicAI 그리고 그 CEO도@DarioAmodei, 이중성을 선택했다.
"효과적인 이타주의"라는 위선적인 수사를 두른 그들은 미국 군대를 강압하려 했는데, 이는 실리콘밸리 이데올로기를 미국인의 생명보다 우선시하는 비겁한 기업 미덕 과시의 행위다.
Anthropic의 결함 있는 이타주의 조건은 전장에서 미군의 안전, 준비태세, 생명을 결코 능가하지 않을 것이다.
그들의 진정한 목적은 명확하다: 미국 군의 작전 결정에 대한 거부권을 장악하는 것이다. 그건 용납할 수 없다.
트럼프 대통령이 트루스 소셜에서 말했듯이, 최고사령관과 미국 국민만이 우리 군대의 운명을 결정할 것이며, 선출되지 않은 기술 경영진이 아니다.
Anthropic의 입장은 근본적으로 미국의 원칙과 양립할 수 없다.
따라서 이들의 미군 및 연방 정부와의 관계는 영구적으로 변화했다.
대통령의 연방 정부 지시에 따라 Anthropic의 모든 기술 사용을 중단하라는 지침과 함께, 나는 전쟁부에 Anthropic을 국가안보 공급망 위험으로 지정하라고 지시한다.
즉시 효력으로, 미국 군과 거래하는 계약자, 공급업체 또는 파트너는 Anthropic과 어떠한 상업 활동도 수행할 수 없다.
Anthropic은 전쟁부에 6개월 이내로 서비스를 계속 제공하여 더 나은, 더 애국적인 서비스로의 원활한 전환을 가능하게 할 것이다.
미국의 전투원들은 결코 빅테크의 이념적 변덕에 인질로 잡히지 않을 것이다. 이 결정은 최종적이다.>
이 발언이 보여주듯, 이 상황은 정치적 싸움으로도 번졌다.
뉴욕타임스는 “펜타곤은 모든 계약업체가 법을 준수하는 한 군이 원하는 대로 구매한 물건을 사용할 수 있다는 단일 기준을 준수하기를 원한다”면서 “하지만 국방부 관계자들은 특히 트럼프 행정부가 '깨어있는(woke)'으로 규정한 기술 기업들을 비판하는 데에도 기꺼이 기뻐하고 있다”고 밝혔다.
AI 기술회사인 앤트로픽에게 안전이 정치적 이해관계에 얽혔고, 회사 직원들은 최고경영자의 단호한 입장에 적극 지지했다.
실리콘밸리 인공지능 기업들 전반에 드물게 단결한 순간에, Anthropic의 경쟁사인 OpenAI와 Google의 직원들이 Anthropic의 입장을 지지하는 서한에 서명했다.
구글의 공개된 성명서와 서명은 다음과 같다.
제목 <전쟁부가 위협하고 있어>
<국방생산법을 발동해 Anthropic이 군에 모델을 제공하도록 강제하고 "군의 필요에 맞게 모델을 맞춤화하라"
회사를 '공급망 위험'으로 분류하라.
이 모든 것은 Anthropic이 국내 대규모 감시에 사용되지 못하게 하고, 인간의 감독 없이 자율적으로 사람을 살해하는 것을 금지하는 그들의 레드라인을 고수한 것에 대한 보복이다.
펜타곤은 구글과 OpenAI와 협상하여 Anthropic이 거부한 것에 동의하도록 노력하고 있다.
그들은 서로가 양보할까 두려워 각 회사를 분열시키려 하고 있다. 그 전략은 우리 모두가 서로의 입장을 모를 때만 효과가 있다.
이 편지는 전쟁부의 압력에 맞서 공동의 이해와 연대를 형성하는 역할을 한다.
우리는 세계 최고의 AI 기업인 구글과 OpenAI의 직원이다.
우리는 우리 지도자들이 차이를 제쳐두고 전쟁부가 현재 요구하는 국내 대규모 감시와 인간의 감독 없이 자율적으로 사람을 살해하는 데 대한 허가 요청을 계속 거부하기를 바랍니다.
서명, 서명국
구글: 520명의 서명자 (모두 현재 직원)
OpenAI: 84명의 서명자 (모두 현재 직원)>
서명자들은 직급과 업무 성명을 그대로 공개하고 서명했다.
서명자들은 성명에서 "그들은 서로가 양보할까 두려워 각 회사를 분열시키려 하고 있다"고 적었다.
초기 타협안에서 펜타곤은 목요일, 대규모 감시나 완전 자율 무기 모두를 위한 기밀 시스템에서 작동하는 Anthropic 모델을 사용할 의사가 없다고 밝혔다.
안트로픽은 펜타곤의 제안을 거절하면서 펜타곤이 클로드라는 모델(Claude)을 해당 목적에 사용하지 않겠다는 주장이 계약서의 법적 문구에 의해 약화됐다고 밝혔다.
안트로픽의 CEO 다리오 아모데이는 "좁은 경우에 한해, 우리는 인공지능이 민주적 가치를 방어하기보다는 훼손할 수 있다고 믿는다"며 "일부 용도는 오늘날 기술로는 안전하고 신뢰할 수 있는 범위를 벗어나기도 한다"고 26일 성명으로 발표했다.
다리오 아모데이의 성명은 다음과 같다.
<나는 AI를 활용해 미국과 다른 민주주의 국가들을 방어하고, 독재적인 적들을 물리치는 데 있어 존재론적 중요성을 깊이 믿는다.
따라서 Anthropic은 전쟁부와 정보기관에 모델을 적극적으로 배포하기 위해 노력해왔다. 우리는 미국 정부의 기밀 네트워크에 자체 모델을 처음으로 도입한 프런티어 AI 기업이었고, 국립연구소에 처음으로 배포했으며, 국가안보 고객을 위한 맞춤형 모델을 처음으로 제공한 회사였다.
Claude는 전쟁부 및 기타 국가안보 기관 전반에 걸쳐 정보 분석, 모델링 및 시뮬레이션, 작전 계획, 사이버 작전 등 중요한 임무 수행 분야에 광범위하게 배치돼 있다.
Anthropic은 또한 미국의 AI 선두를 방어하기 위해 행동했으며, 이는 회사의 단기적 이익에 반하는 일이었다.
우리는 중국 공산당과 연계된 기업들(일부는 전쟁부에서 중국 군사 기업으로 지정됨)의 클로드 사용을 차단하기 위해 수억 달러의 수익을 포기했고, CCP가 후원하는 사이버 공격을 차단했으며, 민주적 이점을 보장하기 위해 칩에 대한 강력한 수출 통제를 주장해 왔다.
Anthropic은 군사 결정은 민간 기업이 아니라 전쟁부임을 이해하고 있다. 우리는 특정 군사 작전에 대해 이의를 제기한 적도 없으며, 임시방편적으로 기술 사용을 제한하려 한 적도 없다.
하지만 제한된 경우에는 AI가 민주적 가치를 방어하기보다는 훼손할 수 있다고 믿는다. 또한 일부 용도는 오늘날 기술로는 안전하고 신뢰할 수 있는 범위를 벗어나 있다. 두 가지 사용 사례는 전쟁부와의 계약에 한 번도 포함된 적이 없으며, 지금도 포함해서는 안 된다고 믿는다:
대규모 국내 감시. 우리는 합법적인 외국 정보 및 방첩 임무에 AI를 활용하는 것을 지지한다. 하지만 이러한 시스템을 대규모 국내 감시에 사용하는 것은 민주주의 가치와 양립할 수 없다.
AI 기반 대규모 감시는 우리의 기본적 자유에 심각하고 새로운 위험을 제기한다. 이러한 감시가 현재 합법인 이유는 법이 아직 AI의 급속히 성장하는 능력을 따라잡지 못했기 때문이다. 예를 들어, 현행법에 따르면 정부는 영장 없이도 미국인의 이동, 웹 탐색, 연관성에 관한 상세 기록을 공개 출처로부터 구매할 수 있는데, 정보기관은 이 관행이 프라이버시 문제를 불러일으키고 의회 내 초당적 반대를 불러일으켰다고 인정했다.
강력한 AI는 이 흩어져 있고 개별적으로 무해한 데이터를 자동으로, 그리고 대규모로 누구의 삶에 대한 포괄적인 그림으로 조립할 수 있게 한다.
완전 자율 무기. 오늘날 우크라이나에서 사용되는 부분 자율 무기는 민주주의 수호에 필수적이다.
완전 자율 무기(인간을 완전히 배제하고 표적 선별 및 교전 자동화를 담당하는 무기)조차도 국가 방위에 매우 중요할 수 있다.
하지만 오늘날 최첨단 AI 시스템은 완전 자율 무기를 구동하기에 충분히 신뢰할 수 없다. 우리는 미국의 전투원과 민간인을 위험에 빠뜨리는 제품을 고의로 제공하지 않을 것이다.
우리는 이 시스템의 신뢰성을 높이기 위해 전쟁부와 직접 협력하겠다고 제안했으나, 그들은 이를 수락하지 않았다.
게다가 적절한 감독 없이는 완전 자율 무기가 우리 고도로 훈련된 전문 군인들이 매일 보여주는 비판적 판단력을 발휘할 수 없다. 적절한 가드레일과 함께 배치되어야 하는데, 오늘날에는 그런 장치가 존재하지 않는다.
우리가 아는 한, 이 두 가지 예외는 지금까지 우리 군대 내에서 모델 도입과 사용을 가속화하는 데 장애물이 되지 않았습니다.
전쟁부는 위에서 언급한 경우에 대해 "합법적인 사용"을 허용하고 안전장치를 해제하는 AI 기업과만 계약을 맺겠다고 밝혔다.
그들은 우리가 이러한 안전장치를 유지하면 우리를 그들의 시스템에서 제거하겠다고 위협했다.
또한 미국을 '공급망 위험'으로 지정하겠다고 위협했는데, 이는 미국 적대국에만 적용된 적이 없고 미국 기업에게는 적용된 적 없는 명칭이며, 국방생산법을 동원해 안전장치 철회를 강제하겠다고 했다.
이 두 위협은 본질적으로 모순적이다: 하나는 우리를 보안 위험으로 규정하고; 다른 한 명은 클로드를 국가 안보에 필수적인 인물로 평가한다.
어쨌든 이러한 위협이 우리의 입장을 바꾸지는 않는다. 우리는 양심상 그들의 요청을 받아들일 수 없다.
비전과 가장 부합하는 계약자를 선정하는 것은 부서의 권한이다.
하지만 Anthropic의 기술이 우리 군대에 제공하는 상당한 가치를 고려할 때, 우리는 그들이 재고하기를 바란다.
우리는 두 가지 요청한 안전장치를 유지한 채 국방부와 전투원들을 계속 섬기는 것을 강력히 선호한다.
만약 국무부가 Anthropic을 오프보드하기로 결정한다면, 우리는 진행 중인 군사 계획, 작전 또는 기타 중요한 임무에 어떤 차장도 주저하지 않도록 원활한 다른 제공자로의 전환을 가능하게 할 것이다.
우리 모델은 제안한 광범위한 조건으로 필요한 만큼 오랫동안 제공될 예정이다.
우리는 미국의 국가 안보를 지원하기 위한 활동을 계속할 준비가 되어 있다.>
며칠 동안 Anthropic과 펜타곤은 최첨단 인공지능 기술을 어떻게 활용할지, 그리고 군사 작전에 어떻게 지원할 수 있을지에 대해 점점 격화되는 싸움을 벌였고, 펜타곤은 앤트로픽이 회사가 원했던 보호 장치 없이 인공지능 시스템에 무제한 접근을 제공할 것을 요구했으며, 안트로픽은 ‘미국인에 대한 사전 통제’ 등 안전 장치를 요구했으나 거절됐다.
트럼프 대통령의 발언은 펜타곤과 앤트로픽이 타협안을 계속 논의하던 중 나왔다.
트럼프 대통령은 발표에서 안트로픽을 "좌파 미치광이들"이라고 부르며, “펜타곤을 강압하려다 실수를 저질렀다”고 말했다.
정밀타격에 필수적인 안트로픽의 클로드(Claude) 모델에 대해 NYT는 “지상 군사 작전을 지원하는 인공지능 활용 사례가 아직 개발 단계에 있지만, 이 모델들은 정보 분석에 적극적으로 활용되고 있다”면서 “클로드를 정부 컴퓨터에서 강제로 내보내면 해외 통신 도청 자료를 조사하는 국가안보국(NSA) 분석가들에게 큰 타격이 될 것이며, 또한 CIA 분석가들이 정보 보고서에서 패턴을 찾는 데 방해가 될 수도 있다”고 밝혔다.
NYT는 이에 “전직 관계자들은 CIA 관계자들이 클로드를 계속 사용할 방법을 찾기 위해 긴장하고 있다고 말했으며, 이는 그들의 작업을 가속화하고 분석을 심화시켰다”면서 “트럼프 대통령의 발언 이전에, 관계자들은 대통령의 어떤 명령도 기관이 다른 해결책을 찾도록 강요할 수 있다고 경고했으며, 펜타곤은 일론 머스크의 xAI가 개발한 Grok을 기밀 시스템에서 추진할 준비가 되어 있지만 ‘그록’은 현직 및 전직 정부 관계자들 사이에서 열등한 제품으로 간주된다”고 밝혔다.
미국이 선호하는 전쟁 준비 단계의 사전 표적 공격 도청 정밀 타격 등에서 이런 AI 소프트웨어가 필수품이 됐고, 안트로픽에서 이를 전환하는 데는 시간이 걸리고 거의 확실히 혼란을 초래할 것으로 보인다.
미 국방부는 해당 기술에 대해, 민간 계약업체가 국가 안보를 위해 도구를 합법적으로 어떻게 사용할지 결정할 수 없다고 밝혔다.
국방부의 군수계약 원칙을 확장해 통상 무기 제조업체가 미사일 투하 위치를 결정하지 않는 것을 이번에 AI 자율무기 계약까지 적용했다.
NYT는 “헤그세스는 폭스 뉴스 출신으로, 지나치게 진보적이라고 보는 정책과 기업을 강하게 비판해왔으며, 전쟁 계획과 무기 개발에 인공지능을 적극적으로 통합하려 하며, 인공지능 확장을 정책의 초석으로 삼은 트럼프 대통령의 말을 되풀이하고 있다”면서 “약 3,800억 달러 규모의 5년 된 회사인 앤트로픽은 인공지능 안전에 명성을 걸었고, 미국 국방 및 정보기관과 협력하면서도 기술의 위험성에 대한 우려를 제기해왔고, 현재 펜타곤의 기밀 시스템에서 운영되는 유일한 인공지능 회사이다”고 밝혔다.
ChatGPT의 제조사인 OpenAI는 27일, 트럼프 대통령이 경쟁사인 Anthropic이 만든 인공지능 기술 사용을 연방 기관에 중단하라고 명령한 지 몇 시간 만에 펜타곤과 기밀 시스템에 인공지능 기술을 제공하기로 합의했다고 밝혔다.
이 합의에 따라 OpenAI는 펜타곤이 자사 인공지능 시스템을 합법적인 목적으로 사용할 수 있도록 허용하기로 동의했다.
OpenAI의 최고경영자 샘 알트먼은 소셜 미디어 게시물에서 "우리의 모든 상호작용에서 DoW는 안전에 대한 깊은 존중과 최선의 결과를 달성하기 위한 협력 의지를 보여주었다"라며 트럼프 행정부가 펜타곤(국방부) 대신 선호 명칭인 전쟁부(Department of War)의 이니셜을 사용했다.
한국에 와서 이재명 대통령과 만났던 알트만이 트럼프 정부와 계약 완료를 알리는 X 게시물은 다음과 같다.
<오늘 밤, 우리는 전쟁부와 기밀 네트워크에 우리 모델을 배치하기로 합의했다.
모든 교류에서 DoW는 안전에 대한 깊은 존중과 최상의 결과를 달성하기 위한 협력 의지를 보여주었다.
AI 안전과 광범위한 혜택 분배가 우리의 사명이다. 가장 중요한 안전 원칙 두 가지는 국내 대규모 감시 금지와 자율 무기 시스템을 포함한 무력 사용에 대한 인간의 책임입니다. DoW는 이 원칙들에 동의하며, 이를 법과 정책에 반영하며, 이를 협정에 포함시킨다. 또한 DoW가 원했던 대로 모델이 제대로 동작하도록 기술적 안전장치를 구축할 것이다. 우리는 모델을 지원하기 위해 FDE(전형적 연합 실험체)를 배포할 것이며, 그 안전성을 보장하기 위해 클라우드 네트워크에만 배포할 것이다.
우리는 DoW에 모든 AI 기업에 동일한 조건을 제공해 달라고 요청하고 있으며, 우리 의견으로는 모두가 이를 수용해야 한다고 생각한다.
우리는 법적·정부적 조치에서 벗어나 합리적인 합의로 상황이 진정되기를 강력히 희망한다고 밝혔다.
우리는 인류 전체를 위해 최선을 다해 봉사하는 데 전념하고 있다. 세상은 복잡하고 혼란스러우며 때로는 위험한 곳이다.>
트럼프 대통령이 안트로픽에 "급진 좌파 AI 회사"라고 부르며 공급망에서 차단 소용돌이 속에서 OpenAI가 개입했고, 알트먼 씨는 27일 CNBC에서 Anthropic을 신뢰하며 "그들은 정말 안전을 신경 쓴다"고 지지했으나, 실제로는 Anthropic과는 다른 방식으로 국방부와 협상했고, OpenAI 기술을 모든 합법적인 목적으로 사용할 수 있도록 동의했다.
익명을 조건으로 이 논의에 정통한 두 명의 관계자가 “알트만은 인공지능이 국내 감시나 자율 무기에 사용되어서는 안 된다는 Anthropic의 입장을 공개적으로 지지했으나, 동시에 25일부터 펜타곤과 기술 관련 협상에 참여했다”며, “지난주 인도에서 열린 인공지능 정상회의에서 알트만 씨와 아모데이 박사는 나렌드라 모디 총리와의 사진 촬영 중 손을 잡기를 거부하는 모습이 영상에 포착됐다”고 NYT에 밝혔다.
NYT는 “알트만 씨와 Anthropic의 최고경영자 다리오 아모데이는 오랫동안 격렬한 라이벌 관계였다”며 “아모데이 박사와 Anthropic의 여러 창립자들은 이전에 OpenAI에서 근무한 바 있지만, 2021년 알트만 씨 및 다른 이들과 인공지능의 자금 조달, 제작, 출시 방식에 대한 의견 차이로 떠났다”고 밝혔다.
안트로픽의 아모데이는 ‘민주주의’를 앞세워 자율무기 사용에 반대했고, 이 대통령이 극찬한 알트만은 “인류 전체를 위해 봉사 전념”과 “세상은 복잡하고 혼란스럽고 위험한 곳”이라고 정반대 세계관으로 충돌했다.
펜타곤은 외형적으로 안트로픽과 협상하면서 내밀하게 비공개로 오픈AI와 거래했고, 알트만 씨는 오픈AI가 개입한 것에 대한 반발에 직면하자 X에서 사람들에게 이 거래에 대해 질문할 것을 28일 요청했다.
많은 질문들이 OpenAI가 어떻게 펜타곤과 계약을 맺으면서도 안전 원칙을 지킬 수 있었는지, 그리고 OpenAI의 합의가 정말로 인공지능 모델을 오용으로부터 보호하는지 의문을 제기했다.
알트만 씨는 이 거래 성사에 대해 "우리는 구체적이고 합법적인 군사 행동에 대해 의견을 내는 권한을 원하지 않는다"며 "하지만 우리는 안전한 시스템을 설계하기 위해 우리의 전문 지식을 활용할 수 있는 능력을 정말 원한다"고 ‘군사용 사용에 제한 없음에 동의’라고 밝혔다.
<이재명 AI로 직접민주주의 헌법 위반 2021년 공약은 ‘뉴딜 4% 고성장. 2025년 7월 14일자>
<인공지능 과다 홍보 투자 경쟁 이재명 정부 AI사업 ‘기업 줄세우기’, 2025년 6월 28일자>
<우크라이나전 AI킬러드론자율살상기관총 이재명 '국방 AI화 병력대체', 2025년 7월 3일자>
<AI 기술 이스라엘이 하마스 공략, 이재명 'AI로 양극화 완화', 2025년 4월 26일자>
<극단주의 경제비전이 극우 구체적 대안 결여, 이재명 'AI로 무세금 노동단축', 2025년 3월 3일자> 참조
kimjc00@hanmail.net
Trump Halts AI Autonomous Weapons Company Anthropic, Blocks Supply Chain, Google and OpenAI Strike Back
Anthropic, which assisted in the Venezuelan attack, halted the use of "Claude" ahead of the Iran attack, prompting the Trump administration to designate it as a "government supply chain risk." 604 Google and OpenAI employees signed a statement opposing the government's action.
The Pentagon-Inthropic dispute stems from a contractual dispute over the technical details of the AI model and how it will be used by the military. However, 13 minutes after President Trump ordered all federal agencies to stop using Anthropic's AI technology via TruSocial on the 27th, Secretary of Defense Hegseth announced to X that the AI company Anthropic was designated as a "supply chain risk to national security," prohibiting any contractor or supplier working with the US military from doing business with Anthropic. The battle between the Pentagon and the artificial intelligence company Anthropic, ostensibly over a $200 million contract for the use of AI in classified systems, has led to a bitter clash between the two sides over a Pentagon-imposed deadline of 5:01 p.m. on the 27th for final contract terms.
Secretary Hegseth announced that if the companies failed to reach an agreement by 5:01 p.m. that day, he would invoke the Defense Production Act to force the military to use their models and designate the company as a supply chain risk. Anthropic also demanded assurances from government contractors that its AI "does not intend to be deployed in mass surveillance of Americans or in autonomous weapons without human intervention" regarding how AI will be used on the battlefield.
Hegseth's full statement follows:
This week, Anthropic delivered a masterclass in arrogance and betrayal, a textbook example of how not to do business with the US government or the Department of Defense. Our position has never wavered and never will: the War Department should have full and unrestricted access to Anthropic's models for all legitimate purposes in defense of the Republic.
Instead, @AnthropicAI and its CEO, @DarioAmodei, have chosen duplicity.
Under the hypocritical rhetoric of "effective altruism," they have attempted to coerce the U.S. military into a cowardly act of corporate virtue signaling that prioritizes Silicon Valley ideology over American lives.
Anthropic's flawed altruism will never trump the safety, readiness, or lives of U.S. troops on the battlefield.
Their true objective is clear: to seize veto power over U.S. military operational decisions. That is unacceptable.
As President Trump stated at Truth Social, the Commander-in-Chief and the American people alone will determine the fate of our military, not unelected tech executives.
Anthropic's position is fundamentally incompatible with American principles.
Thus, their relationship with the U.S. military and the federal government has been permanently altered.
In accordance with the President's federal directive, I am directing the Department of War to designate Anthropic as a national security supply chain risk, along with directives to cease all use of Anthropic's technology.
Effective immediately, no contractor, supplier, or partner doing business with the U.S. military may engage in any commercial activity with Anthropic.
Anthropic will continue to provide services to the War Department for six months to facilitate a smooth transition to a better, more patriotic service.
America's warfighters will never be held hostage to the ideological whims of Big Tech. This decision is final.>
As these remarks demonstrate, the situation has also escalated into a political battle.
The New York Times reported, "The Pentagon wants all contractors to adhere to a single standard that allows the military to use purchased products as they wish, as long as they comply with the law." "But Pentagon officials are also happy to criticize technology companies, particularly those the Trump administration has labeled 'woke.'" For AI technology company Anthropic, safety became a political issue, and the company's employees enthusiastically supported their CEO's unwavering stance.
In a rare moment of unity across Silicon Valley AI companies, employees at Anthropic's competitors, OpenAI and Google, signed a letter supporting Anthropic's position.
Google's public statement and signatures are as follows:
Title: "The War Department Is Threatening"
Invoke the Defense Production Act to force Anthropic to provide its models to the military and "tailor them to the military's needs"
Classify the company as a "supply chain risk."
All of this is retaliation for Anthropic's adherence to its red lines, which prohibit its use in domestic mass surveillance and the autonomous killing of humans without human supervision.
The Pentagon is negotiating with Google and OpenAI to force them to agree to what Anthropic has refused.
They are trying to divide each company, fearing that the other will compromise. This strategy only works if we all don't know each other's positions. This letter serves to build common understanding and solidarity against the pressures of the War Department.
We are employees of Google and OpenAI, the world's leading AI companies.
We urge our leaders to set aside their differences and continue to reject the War Department's current request for permission to conduct domestic mass surveillance and autonomous killings without human supervision.
Signatures, Signatories
Google: 520 signers (all current employees)
OpenAI: 84 signers (all current employees)
The signers signed with their titles and job descriptions clearly stated.
"They are trying to divide each company for fear of the other compromising," the letter stated.
In an initial compromise, the Pentagon announced Thursday that it had no intention of using Anthropic's models, which operate in classified systems for either mass surveillance or fully autonomous weapons.
Anthropic rejected the Pentagon's offer, stating that the Pentagon's insistence that it would not use its Claude model for these purposes was undermined by the legal language of the contract. Anthropic CEO Dario Amodei said in a statement on the 26th, "In narrow cases, we believe that AI can undermine rather than defend democratic values." He added, "Some uses are beyond what is safe and reliable with today's technology."
Dario Amodei's statement reads:
"I deeply believe in the existential importance of leveraging AI to defend the United States and other democracies and to defeat authoritarian adversaries.
Therefore, Anthropic has actively worked to deploy models to the War Department and intelligence agencies. We were the first frontier AI company to deploy our models on classified U.S. government networks, the first to deploy to national laboratories, and the first to provide custom models for national security clients.
Claude has extensively deployed across the War Department and other national security agencies in mission-critical areas such as intelligence analysis, modeling and simulation, operational planning, and cyber operations."
Anthropic also acted to defend America's AI leadership, even when this was against the company's short-term interests. We have forfeited hundreds of millions of dollars in revenue to block the use of cloud computing by companies linked to the Chinese Communist Party (some designated by the War Department as Chinese military companies), thwarted CCP-sponsored cyberattacks, and advocated for strong export controls on chips to ensure democratic gains.
Anthropic understands that military decisions are made by the War Department, not private companies. We have never objected to specific military operations, nor have we sought to restrict the use of technology ad hoc.
However, we believe that in limited cases, AI could undermine rather than defend democratic values. Furthermore, some uses fall outside the safe and reliable realm of today's technology. Two use cases have never been included in contracts with the War Department, and we believe they should not be:
Mass domestic surveillance. We support the use of AI for legitimate foreign intelligence and counterintelligence missions. However, the use of these systems for mass domestic surveillance is incompatible with democratic values.
AI-driven mass surveillance poses serious and novel risks to our fundamental freedoms. This surveillance is currently legal because the law hasn't yet caught up with the rapidly growing capabilities of AI. For example, under current law, the government can purchase detailed records of Americans' movements, web browsing, and connections from public sources without a warrant, a practice that intelligence agencies have acknowledged raises privacy concerns and sparked bipartisan opposition in Congress.
Strong AI could automatically assemble this scattered, individually innocuous data into a comprehensive picture of anyone's life, at scale.
Fully autonomous weapons. The partially autonomous weapons used today in Ukraine are essential to the defense of democracy.
Even fully autonomous weapons—weapons that completely eliminate humans and automate target selection and engagement—could be crucial to national defense.
However, today's cutting-edge AI systems are not sufficiently trustworthy to power fully autonomous weapons. We will not knowingly provide products that endanger American warfighters and civilians.
We offered to work directly with the War Department to improve the reliability of these systems, but they declined. Moreover, without proper oversight, fully autonomous weapons cannot exercise the critical judgment our highly trained professional soldiers demonstrate every day. They must be deployed with appropriate guardrails, which do not exist today.
To our knowledge, these two exceptions have not hindered the accelerated adoption and use of the model within our military.
The War Department has stated that it will only contract with AI companies that allow "lawful use" and lift safeguards in the aforementioned cases.
They have threatened to remove us from their systems if we maintain these safeguards.
They also threatened to designate the United States as a "supply chain risk," a designation that has never been applied to American adversaries or American companies, and threatened to use the Defense Production Act to force the withdrawal of safeguards.
These two threats are inherently contradictory: one labels us a security risk; the other considers Claude as essential to national security.
In any case, these threats do not alter our position. We cannot, in good conscience, accept their request.
The Department prescribes the contractor that best aligns with its vision.
However, given the significant value Anthropic's technology provides to our military, we hope they will reconsider.
We strongly prefer to continue serving the Department of Defense and the warfighter while maintaining the two requested safeguards.
If the State Department decides to offboard Anthropic, we will facilitate a seamless transition to another provider, ensuring no Deputy Secretary will hesitate to engage in ongoing military planning, operations, or other critical missions.
Our model will be available for as long as necessary, under the broad terms proposed. We stand ready to continue our work to support America's national security.>
For days, Anthropic and the Pentagon have been locked in an escalating battle over how to leverage cutting-edge AI technology and how it could support military operations. The Pentagon demanded unrestricted access to the AI system without the protections Anthropic sought, while Anthropic demanded safeguards, including "preemptive control of Americans," which were denied.
Trump's remarks came as the Pentagon and Anthropic continued to negotiate a compromise.
In his announcement, Trump called Anthropic "left-wing lunatics" and said they "made a mistake trying to coerce the Pentagon." Regarding Antropic's Claude model, which is essential for precision strikes, the New York Times reported, "While AI applications supporting ground military operations are still in the development stage, these models are actively used for intelligence analysis.
Forcing Claude off government computers would be a major blow to National Security Agency (NSA) analysts examining foreign wiretaps, and it could also hinder CIA analysts' ability to find patterns in intelligence reports." The Times continued, "Former officials said CIA officials were anxious to find ways to continue using Claude, which accelerated their work and deepened their analysis."
Even before Trump's remarks, officials warned that any order from the president could force the agency to find other solutions, and the Pentagon is poised to pursue Grok, developed by Elon Musk's xAI, in classified systems, but "Grok" is considered an inferior product by current and former administration officials. Such AI software has become essential for the US's preferred war preparation phases, such as pre-targeting, eavesdropping, and precision strikes, and the transition from Antropic will take time and almost certainly lead to disruption.
The Pentagon has stated that private contractors cannot legally determine how the tools can be used for national security purposes.
The Pentagon has extended its military contracting principles, which typically exclude weapons manufacturers from determining missile launch locations, to include contracts for AI-powered weapons.
The New York Times reported, "Hegseth, a former Fox News executive, has been a vocal critic of policies and companies he deems overly progressive. He actively seeks to integrate AI into war planning and weapons development, echoing President Trump's rhetoric that has made AI expansion a cornerstone of his policy." "Antropic, a five-year-old company with a $380 billion valuation, has staked its reputation on AI safety, has worked with US defense and intelligence agencies while raising concerns about the technology's risks, and is currently the only AI company operating on the Pentagon's classified systems."
OpenAI, the maker of ChatGPT, announced on the 27th that it had reached an agreement with the Pentagon to provide its AI technology for classified systems, just hours after President Trump ordered federal agencies to stop using AI technology developed by rival company Anthropic.
Under the agreement, OpenAI agreed to allow the Pentagon to use its AI systems for lawful purposes.
In a social media post, OpenAI CEO Sam Altman said, "In all our interactions, the Department of War has demonstrated a deep respect for security and a willingness to collaborate to achieve the best possible outcome," using the initials of the Department of War, the Trump administration's preferred name for the Pentagon.
Altman, who visited South Korea to meet with President Lee Jae-myung, posted the following X to announce the contract with the Trump administration:
<Tonight, we agreed to deploy our models on the Department of War and classified networks.>
In all our interactions, the Department of War has demonstrated a deep respect for security and a willingness to collaborate to achieve the best possible outcome.
Our mission is to ensure AI safety and the broad distribution of its benefits. Two of the most important safety principles are the prohibition of domestic mass surveillance and human responsibility for the use of force, including autonomous weapons systems. The Department of War (DW) agrees with these principles, embodies them in its laws and policies, and incorporates them into its agreements. Furthermore, we will implement technical safeguards to ensure the model performs as intended. We will deploy the FDE (Federated Exemplar Experimental Body) to support the model, and to ensure its safety, we will deploy it only on cloud networks.
We are asking the DoW to provide equal conditions to all AI companies, and we believe everyone should accept this.
We strongly hope that the situation will be resolved through a reasonable agreement, rather than through legal or governmental action.
We are committed to serving all of humanity to the best of our ability. The world is complex, confusing, and sometimes dangerous. >
OpenAI intervened amidst President Trump's escalating stalemate, labeling Anthropic a "radical left-wing AI company" and cutting it off from the supply chain. Altman, on CNBC on the 27th, expressed confidence in Anthropic, saying, "They really care about safety." However, he negotiated with the Department of Defense differently than Anthropic, agreeing to allow OpenAI's technology to be used for any lawful purpose.
Two people familiar with the discussions, speaking on condition of anonymity, told the New York Times, "Altman publicly supported Anthropic's position that AI should not be used for domestic surveillance or autonomous weapons, but he has also been involved in technology-related negotiations with the Pentagon since the 25th." They added, "At an artificial intelligence summit in India last week, Altman and Dr. Amodei were captured on video refusing to hold hands during a photo op with Prime Minister Narendra Modi."
The New York Times reported, "Altman and Anthropic CEO Dario Amodei have long been bitter rivals. Dr. Amodei and several of Anthropic's founders previously worked at OpenAI, but left in 2021 due to differences with Altman and others over how to fund, build, and release AI."
Anthropic's Amodei opposed the use of autonomous weapons, championing "democracy," while Altman, whom President Lee praised, clashed with him over their opposing worldviews: "dedicated to serving all of humanity" and "the world is a complex, chaotic, and dangerous place."
The Pentagon negotiated with OpenAI privately, while outwardly negotiating with Antropic, and Altman, facing backlash over OpenAI's involvement, asked people at X on the 28th to question the deal.
Many questions raised questions about how OpenAI could maintain safety principles while contracting with the Pentagon, and whether OpenAI's agreement truly protects its AI models from misuse.
Altman said of the deal, "We don't want the power to comment on specific, lawful military actions," but "we do want the ability to use our expertise to design secure systems," agreeing to "unrestricted military use."
See <Lee Jae-myung's 2021 pledge to violate the Constitution on direct democracy with AI: 'New Deal 4% high growth', July 14, 2025>
<Lee Jae-myung's AI government 'lines up companies' amidst excessive publicity and investment competition for AI, June 28, 2025>
<Lee Jae-myung's 'AI-powered killer drones and autonomous machine guns in the Ukraine War', July 3, 2025>
<Israel's AI technology to target Hamas, Lee Jae-myung's 'AI to ease polarization,' April 26, 2025>
<Extremist economic vision lacks concrete far-right alternatives, Lee Jae-myung's 'AI to shorten labor without taxes,' March 3, 2025>
AI, CIA, supply chain, Google, arms contracts, Anthropic, autonomous weapons, Claude, Trump, Pentagon