AI 자율 무기·대규모 감시를 거부한 앤트로픽의 양심선언
2026년 2월 27일, 미국 국방부 장관 피트 행세스(Pete Hegseth)가 소셜 미디어에 짧은 글을 올렸다.
"즉시 발효. 미 군과 거래하는 모든 계약업체, 공급업체, 파트너는 앤트로픽(Anthropic)과의 일체의 상업적 활동을 중단해야 한다."
미국 정부가 자국의 AI 기업에 '공급망 리스크' 딱지를 붙이겠다고 위협한 것이다.
이 낙인은 역사적으로 화웨이 같은 미국의 적성국 기업에 적용된 적은 있지만, 미국 기업에 적용된 전례는 단 한 번도 없었다.
모든 AI 회사 중 ‘가장 양심적’이라 칭송받는 앤트로픽이 도대체 무엇을 했길래?
앤트로픽은 프론티어 AI 기업 중 최초로 미국 정부의 기밀 네트워크에 자사 모델 클로드(Claude)를 배치한 회사다. 2024년 6월부터 미군의 정보 분석, 모델링과 시뮬레이션, 작전 계획, 사이버 작전 등 핵심 임무에 Claude를 공급해 왔으며, 국방부는 Claude를 2억 달러 규모의 계약으로 운용하고 있었다.
그런 회사의 CEO 다리오 아모데이(Dario Amodei)가, 최근 국방부와의 협상에서 두 가지 예외를 요구했다.
첫째, 미국 시민에 대한 대규모 국내 감시에 Claude를 사용하지 말 것.
둘째, 완전 자율 무기에 Claude를 탑재하지 말 것.
아모데이는 성명에서 이렇게 밝혔다.
"우리는 AI가 합법적인 해외 정보 및 방첩 임무에 사용되는 것을 지지합니다. 그러나 이 시스템을 대규모 국내 감시에 사용하는 것은 민주주의 가치와 양립할 수 없습니다."
"완전 자율 무기는 미래에 국방에 필수적일 수 있습니다. 그러나 오늘날의 프론티어 AI 시스템은 완전 자율 무기를 구동할 만큼 충분히 신뢰할 수 없습니다. 우리는 미국의 군인과 민간인을 위험에 빠뜨리는 제품을 고의로 제공하지 않을 것입니다."
이에 대한 국방부의 요구는 명확했다.
"모든 합법적 용도"에 제한 없이 사용할 수 있게 하라.
그 요구에 아모데이는, "양심에 따라 응할 수 없습니다."라며 어려운 답변을 선택했다.
먼저 앤트로픽이 도대체 어떤 회사인지 다시 한번 짚고 넘어갈 필요가 있다.
2021년, 다리오 아모데이와 그의 여동생 다니엘라 아모데이는 오픈AI를 떠나 앤트로픽을 설립했는데, 이유는 AI 안전에 대한 철학적 차이. 오픈AI가 상업적 확장에 속도를 내는 동안, 아모데이 남매는 "AI가 충분히 안전하지 않은 상태에서 너무 빨리 달리고 있다"는 위기감을 품고 있었다.
앤트로픽의 정체성은 설립 문서에 각인되어 있다.
회사는 자신들을 단순한 기술 기업이 아닌 'AI 안전 연구 회사'로 정의한다.
그리고 이 정체성을 뒷받침하는 독특한 거버넌스 구조를 갖추고 있다.
이윤 추구보다 안전을 우선하겠다는 공익법인(Public Benefit Corporation) 구조.
AI 시스템의 위험도에 따라 배포 기준을 단계적으로 강화하는 책임 있는 스케일링 정책.
그리고 모델의 행동 원칙을 외부에 공개하는 투명성 정책.
그렇다고 앤트로픽이 국방을 거부한 것이 아니다. 오히려 2024년 6월부터 미군의 정보 분석, 모델링, 사이버 작전 등에 Claude를 적극 공급해 왔다.
아모데이는 말한다.
"우리는 AI가 미국과 민주주의 국가를 방어하고, 독재적 적국을 물리치는 데 사용되는 것의 실존적 중요성을 깊이 믿습니다."
국방을 지지하되, 선은 넘지 않겠다. 이것이 앤트로픽의 명확한 입장이었다.
이 결단이 얼마나 어려웠을지는, 앤트로픽의 재무 상황을 보면 짐작할 수 있다.
AI 프론티어 경쟁은 말 그대로 '돈을 태우는 전쟁'. 최첨단 AI 모델 하나를 훈련하는 데 수억 달러의 컴퓨팅 비용이 들고, 수천 명의 연구원을 고용해야 한다. 앤트로픽은 2024년 한 해만 약 42억 달러를 소진한 것으로 알려져 있으며, 수익이 성장하고 있지만 여전히 막대한 적자를 기록하고 있다.
오픈AI, Google, Meta와의 군비 경쟁에서 살아남으려면 단 한 건의 대형 계약도 소홀히 할 수 없는 상황이다. 국방부의 2억 달러 계약은 단순한 매출이 아니라, 미국 정부와의 신뢰 관계를 증명하는 상징적 계약이기도 했다.
이것을 잃는다는 것은 돈만의 문제가 아니라, 기업의 신뢰도와 성장 궤도 전체에 대한 위협이었다.
그럼에도 앤트로픽은 "No"라고 말했다.
살아남기 위해 돈이 절실한 회사가, 돈을 버리면서 지키려 한 것. 그것이 이 결단의 무게다.
AI기술을 이용한 전쟁 무기 - Lavender (라벤더)
이스라엘군(IDF)이 가자지구 전쟁에서 사용한 AI 기반 표적 데이터베이스.
하마스·이슬람 지하드의 전투원으로 의심되는 인물을 자동으로 식별하며, 전쟁 초기 약 37,000명의 팔레스타인인을 잠재적 폭격 대상으로 분류했다. 정보원들의 증언에 따르면 인간의 검토가 극히 제한적이었고, 하위 전투원 추적 시 민간인 피해를 상당 수준 허용했다고 한다.
갈등의 본질을 이해하려면 양쪽의 논리를 모두 들여다봐야 한다.
국방부 입장에서 이 문제는 주권과 통제의 문제다.
"국가 안보의 핵심 인프라에 민간 기업이 윤리적 거부권을 행사하는 것을 허용할 수 있는가?"
국방부 관계자는 CBS News 인터뷰에서 이렇게 반문했다.
"군에 대한 신뢰가 필요합니다. 대량 감시나 완전 자율 무기는 이미 법과 국방부 정책으로 금지되어 있습니다. 왜 추가적인 제한이 필요합니까?"
뉴욕타임스 오피니언은 더 근본적인 질문을 던졌다.
초음속 미사일이 미국 본토를 향해 날아오는 상황에서, AI 기업이 '자율 무기 금지 규정'을 이유로 대응을 거부한다면? 민주적으로 선출된 정부의 결정을 민간 기업이 무효화할 수 있는가?
아모데이 CEO의 반론은 크게 세 가지다.
"우리가 신뢰할 수 없는 제품을 팔고 싶지 않습니다. 우리 군인이 죽거나 무고한 사람이 죽을 수 있는 제품을 팔고 싶지 않습니다."
최신 AI라고 해도 여전히 '환각'을 일으키고, 예측 불가능한 오류를 범한다.
AI를 개발하는 입장임에도 불구하고, 이런 시스템에 생사여탈의 결정을 맡기는 것은 기술적으로 무모하다는 주장이다.
현행법상 정부는 민간 기업이 수집한 미국인의 이동 경로, 웹 브라우징 기록, 인간관계 데이터를 영장 없이 구매할 수 있다. AI 이전에는 이 데이터가 '쓸모없었기' 때문에 규제할 필요가 없었다. 그러나 AI는 이 흩어진 퍼즐 조각들을 자동으로, 대규모로 조합하여 누구든 한 사람의 삶 전체를 재구성할 수 있게 만든다.
국방부는 앤트로픽을 '공급망 리스크'로 지정하겠다고 위협하면서, 동시에 국방물자생산법(Defense Production Act)을 발동하여 Claude를 강제 공급하겠다고 위협했다.
아모데이는 이 두 위협이 "본질적으로 모순"이라고 지적했다. 하나는 앤트로픽을 안보 위협으로 낙인찍는 것이고, 다른 하나는 Claude를 국가 안보에 필수적이라고 선언하는 것이니까.
AI기술을 이용한 전쟁 무기 - The Gospel (더 가스펠)
감시 데이터를 자동 분석하여 건물, 장비, 인물 중 적 소유로 추정되는 것을 찾아 폭격 목표물을 인간 분석관에게 추천하는 AI 시스템. 이전 전쟁에서는 이스라엘 공군이 표적 부족으로 폭격을 중단해야 했으나, Gospel 도입 후 폭격 대상이 대폭 확대됨.
2월 28일, 앤트로픽이 밀려난 바로 그 자리를 오픈AI가 채웠다.
국방부의 기밀 네트워크에 AI를 공급하는 계약을 체결한 것이다.
가디언(The Guardian)은 이 타이밍을 "앤트로픽이 윤리적 우려로 퇴장한 몇 시간 만에"라고 표현했다.
오픈AI의 CEO 샘 알트만(Sam Altman)은 군이 자사 제품을 자율 살상 시스템이나 대규모 감시에 사용하지 않을 것이라고 주장했다. 그러나 이 보장이 계약서에 명문화되었는지는 알려지지 않았다.
포춘(Fortune)은 이 상황을 이렇게 분석했다.
앤트로픽에 대한 '공급망 리스크' 지정의 가장 큰 위험은, 정부 계약 자체의 손실이 아니라 기업의 성장 궤도 전체에 대한 타격이라고. 방산 업체들이 앤트로픽과의 거래를 기피하게 되면, 그 영향은 민간 시장으로까지 번질 수 있다.
POLITICO는 한 업계 관계자의 말을 인용했다. "이것은 기업 살해 시도입니다."
AI기술을 이용한 전쟁 무기 - Drone Dominance Program (드론 주도권 프로그램) / The Gauntlet
11억 달러 규모의 프로그램으로, 25개 업체가 선정되어 저비용 소모성 공격 드론을 경쟁 개발 중.대당 2,000달러 미만, 에이전틱 AI 기반으로 투입 후 최소한의 인간 개입으로 임무를 수행하도록 설계되어, 2026년 말까지 모든 육군 분대에 보급이 목표라고 전해진다.
이 사태의 파장은 앤트로픽이라는 한 회사를 넘어선다.
버지니아대학교 다든 경영대학원의 AI 윤리 연구소장 마크 루지아노(Marc Ruggiano)는 이 문제가 단순하지 않다고 지적. AI가 살상 결정권까지 쥐는 것은 위험하지만, 반대로 표적 식별이나 민간인 구별 같은 보조 역할에 AI를 활용하면 오히려 치명적인 오판을 줄일 수도 있다는 것이다. 문제는 AI를 쓰느냐 마느냐가 아니라, 어디까지 맡기느냐다.
유엔(UN) 사무총장 안토니우 구테흐스는 2023년부터 인간의 통제 없이 작동하는 치명적 자율 무기 시스템(LAWS)의 국제법적 금지를 촉구해 왔다. 2026년까지 법적 구속력 있는 문서를 완성할 것을 권고했으나, 아직 실현되지 않고 있다.
가자지구와 우크라이나에서 규제 없는 군사 AI의 사용은 이미 현실이 되었다.
이스라엘군의 AI 표적 시스템 사용에 대한 인권 단체들의 우려는 날로 커지고 있다.
오피니오 유리스(Opinio Juris)의 국제법 분석은 이 문제의 본질을 꿰뚫는다.
앤트로픽의 가드레일은 단순한 '윤리적 약속'이 아니라, 국제인도법(IHL)의 구별 원칙, 비례성 원칙, 공격 시 주의 의무와 직접적으로 맞닿아 있다는 것이다.
자율 무기 시스템이 표적 결정에 알고리즘을 사용할 때, 이러한 원칙들이 어떻게 준수되는지에 대한 미해결 질문들이 산적해 있다.
AI기술을 이용한 전쟁 무기 - CCA (Collaborative Combat Aircraft)
유인 전투기(F-35A 등)와 함께 비행하는 AI 자율 드론 윙맨. 2026년 2월, Anduril의 YFQ-44A Fury가 비활성 미사일을 장착한 상태로 비행 시험을 완료했고, General Atomics의 YFQ-42A Dark Merlin은 유인기와의 반자율 편대 비행에 성공. 미 공군은 약 1,000대 이상 배치를 목표로 하고 있다.
그리고 이 논쟁이 '가정'이 아니라 '현실'임을 증명하는 사건들이, 바로 이 글을 쓰는 지금 이 순간에도 벌어지고 있다.
모두 잘 알다시피, 2026년 1월 3일, 미군은 베네수엘라 수도 카라카스에 대규모 군사 작전을 감행하여 니콜라스 마두로(Nicolás Maduro) 대통령을 체포했다. 150대 이상의 군용기와 드론이 투입된 이 작전에서, 베네수엘라 국방부 발표에 따르면 최소 83명이 사망. 유엔과 국제법 전문가들은 이 작전이 유엔 헌장과 베네수엘라의 주권을 침해했다고 지적했다.
그런데 월스트리트저널(WSJ)이 밝혀낸 사실이 충격을 더했다.
이 작전에 앤트로픽의 Claude가 사용되었다는 것이다.
팔란티어 테크놀로지스(Palantir Technologies)와의 파트너십을 통해 미군의 기밀 네트워크에 배치된 Claude가, 마두로 체포 작전의 일부로 활용되었다는 보도였다.
앤트로픽의 이용약관은 폭력적 목적, 무기 개발, 감시를 위한 Claude 사용을 명시적으로 금지하고 있었다.
앤트로픽은 정책 위반 사실을 확인하지 못했다고 밝혔지만, 사내에서 상당한 동요가 일었다고 NBC News는 전했다. 이 사건은 앤트로픽과 국방부 사이의 갈등을 끓는점으로 밀어 올렸다.
그리고 불과 두 달도 채 지나지 않아, 또 하나의 전선이 열렸다.
2026년 2월 28일, 미국과 이스라엘이 이란에 대규모 공습을 개시했다. 이란의 최고지도자 아야톨라 알리 하메네이가 이스라엘의 '참수 작전'으로 사망한 것으로 확인됐다. 미국은 의회 승인 없이, 이라크 전쟁 이후 최대 규모의 공군력과 해군력을 중동에 집결시켰다.
카리브해에서는 9월 이후 미군이 '마약 밀매선'이라 주장하는 소형 선박들에 대해 39회 이상의 공격을 감행하여, 최소 144명이 사망했다. 이 중 상당수는 증거 없이 '마약 밀매 경로'에 있었다는 이유만으로 공격 대상이 되었다.
주목해야 할 것은 이 모든 군사 작전에서 AI와 드론 기술이 핵심 역할을 하고 있다는 사실이다.
미 육군 항공 책임자는 2026년 2월 "드론이 합동 전투의 모든 것을 바꾸고 있다"라고 말했다.
해병대는 2026년 봄까지 모든 보병 정찰 대대에 FPV 드론 전투 능력을 배치할 계획이다. 해군은 구축함과 소형 함정에서 발사할 수 있는 1,400마일 이상의 사거리를 가진 장거리 공격 드론을 공개적으로 요청했다.
기술은 이미 전장에 있다.
그리고 그 기술에는 가드레일이 없다.
앤트로픽이 지키려 했던 두 개의 레드라인, 대규모 감시와 완전 자율 무기에 대한 경계선이 왜 중요한지, 베네수엘라의 폐허와 테헤란의 연기 휩싸인 거리가 역설적으로 증명하고 있다.
CNBC는 이 대립을 "전후(戰後) 시대에 한 번도 시험된 적 없는, 군과 민간 기업 사이의 AI 권력 균형에 대한 실시간 테스트"라고 표현했다.
이것은 앤트로픽만의 문제가 아니다.
핵무기 시대, 인류는 '버튼 하나'의 무게를 알았다.
그래서 수십 년에 걸쳐 조약을 맺고, 감시 체계를 만들고, 발사 코드를 분리했다.
그 긴 과정을 통해 "기술의 능력과 인간의 통제 사이의 경계"를 하나하나 세워 올렸다.
AI 시대, 그 경계를 다시 그어야 한다.
그런데 이번에는 속도가 다르다.
핵은 수십 년이 걸렸지만, AI는 수개월 만에 판도를 바꾼다.
법이 기술을 따라잡기도 전에, 기술은 이미 전장에 배치되고 있다.
그래서 이 질문이 무겁다.
AI 기업이 국가 안보에 윤리적 거부권을 행사할 수 있는가?
국가가 민간 기업에게 양심의 포기를 강제할 수 있는가?
기술이 법보다 빠를 때, 누가 선을 긋는가?
글로벌리즘이 희미해지고 내셔널리즘의 망령이 다시 고개를 드는 이 시대에, AI라는 미지의 신기술을 둘러싼 양심선언.
이것은 최첨단 기술이 전쟁 무기로 전환된 역사의 수레바퀴에 결국 짓밟히는 미약한 몸부림으로 끝날 것인가.
아니면, 진정으로 인간을 위한 ‘인공’ 지능을 향해 나아가는 위대하고 양심적인 발걸음이 될 것인가.
모래 위에 그은 선은 파도에 쉽게 지워진다.
하지만 누군가는 그 선을 계속 다시 그어야 한다.
이것만은 AI에게 맡길 수 없는 인간만이 해야 하고 할 수 있는 무모한 도전이기에.
- 글: KnowAI (https://www.knowai.space/)
이 글은 2026년 2월 26일~28일 사이에 발행된 Anthropic, AP, CNBC, The Guardian, PBS, WIRED, Fortune, POLITICO, The Hill, Opinio Juris, CBS News, New York Times 등의 보도를 바탕으로 앤트로픽의 AI 클로드의 도움을 받아 작성되었습니다.
빠르게 전개되는 사안인 만큼, 이후 상황이 달라질 수 있으며, 개인적인 의견이 다수 포함되어 있어 사실과 다른 내용이 있을 수도 있다는 점에 대해 미리 양해말씀 드립니다.