자율무기와 감시 앞에서 기업은 어디까지 거부할 수 있나

AI 군비 경쟁의 시대

by 김동린

자율 무기와 감시 앞에서 기업은 어디까지 거부할 수 있는가

2026년 1월 3일 새벽. 미 특수부대가 베네수엘라 카라카스에 진입했다. 작전명 'Absolute Resolve'. 델타포스가 마두로 대통령의 관저를 급습했고, 150대가 넘는 항공기가 동시에 출격했다. F-22, F-35, B-1 폭격기, 무인기 — 서반구 전역에서 모인 전력이었다.


수 시간 만에 끝났다. 마두로와 부인이 체포됐고, 미군 사상자는 0명. 적 측 사망자는 최소 40명.


AI는 Palantir의 군사 플랫폼을 통해 위성과 드론과 센서에서 쏟아지는 데이터를 종합하고, 시뮬레이션을 돌리고, 지휘 판단을 보조했다. 전통적인 군사 작전에서는 인간 분석관이 수 시간에서 수일에 걸쳐 정보를 종합한다. AI는 이것을 수 분, 때로는 수 초 만에 해낸다. 150대의 항공기를 동시에 조율하고, 실시간 센서 데이터를 통합하고, 적의 대응을 시뮬레이션하는 것 — 이 규모의 정보 처리는 인간만으로는 불가능하다. '사상자 0명'이라는 결과에 AI의 기여가 컸다는 평가가 나왔다.


Palantir는 피터 틸이 2003년에 설립한 데이터 분석 회사다. 원래 CIA의 대테러 정보 분석을 위해 만들어졌고, 이후 미군의 핵심 소프트웨어 공급자로 성장했다. 미 육군과 100억 달러 규모의 소프트웨어/데이터 계약을 체결한 회사. 이름 자체가 『반지의 제왕』에 나오는 '팔란티르'에서 가져왔다 — 먼 곳을 내다보는 수정구슬. 그 이름처럼 이 회사의 핵심 역량은 데이터를 통해 '보는 것'이다. 전장을 보고, 패턴을 보고, 위협을 본다. 마두로 작전에서도 Palantir의 플랫폼 위에 Claude가 올라가 작전을 지원했다. 작전이 끝난 뒤, Palantir의 주가는 올랐다.


그런데 이상한 일이 벌어졌다. 자사 기술이 성공적인 군사 작전에 쓰였다는 보도가 나오자, Anthropic의 한 경영진이 Palantir에 직접 연락했다.


축하 전화가 아니었다.


마두로 작전에서 Claude가 쓰였는지 확인하겠다는 것이었다. 실탄이 오간 작전에 자사 AI가 관여한 것에 대한 항의였다.


보통은 반대다. 기업이라면 자사 기술의 군사적 성공을 홍보 기회로 쓴다. Palantir가 그랬다. 국방부가 '첨단 기술의 성공적 활용'이라고 자평하는 동안, 정작 그 기술을 만든 회사는 항의 전화를 걸고 있었다.


이 이야기를 처음 접했을 때 두 가지 생각이 동시에 들었다.

하나는, 자기가 만든 기술이 사람을 죽이는 데 쓰였다는 사실 앞에서 항의 전화를 거는 것은 최소한의 양심이라는 것.

다른 하나는 — 그런데 왜 이 회사만 이러는 거지?


여기서 잠깐,

Palantir와 Anthropic의 관계를 짚어야 한다.


Anthropic은 2023년 Palantir와 파트너십을 맺었다. 미국 정보기관이 Claude를 사용할 수 있도록 Palantir의 보안 인프라를 통해 배포하는 계약이었다. Anthropic은 이 계약에 사용 제한 조건을 걸었다고 한다.


문제는, AI가 일단 Palantir의 플랫폼 위에 올라가면 실제로 어떤 용도에 쓰이는지를 Anthropic이 실시간으로 통제하기 어렵다는 것이다. 마두로 작전이 정확히 이 문제를 보여준다. Anthropic이 허용하지 않은 방식으로 Claude가 쓰였고, 그 사실을 Anthropic은 보도를 통해 알았다. 기술은 이미 나갔다. 통제는 남아 있지 않았다.


이것이 AI 군사 활용의 근본적 딜레마다. AI를 군에 제공하면서 사용처를 제한하겠다는 것은, 칼을 팔면서 어디를 베라고 지정하는 것과 비슷하다. 칼이 한번 손을 떠나면, 이후의 사용은 쥐고 있는 사람의 몫이다. Anthropic은 이 딜레마를 알고 있다. 그래서 아예 특정 용도에는 제공하지 않겠다고 선을 긋는 것이다. 사용 후 통제가 불가능하니, 사용 전에 경계를 세우는 방식이다.




전쟁의 도구로 태어난 기술

이 질문에 답하려면 먼 과거로 돌아가야 한다. 실리콘밸리가 군과 거리를 둔 것처럼 보이는 시기는, 실은 예외였다.


인터넷 자체가 군사 프로젝트다. 1969년, 미 국방부 산하 고등연구계획국(DARPA)이 만든 ARPANET이 인터넷의 전신이다. 핵전쟁에도 살아남는 분산 통신망을 만들겠다는 군사적 필요에서 시작됐다.


소련이 핵미사일로 중앙 통신 허브를 파괴하더라도 유지되는 네트워크. 그것이 50년 뒤에 당신과 내가 이 글을 읽고 있는 인터넷이 됐다. 냉전 시대, 미국 컴퓨터 과학 연구 자금의 70% 이상이 국방부에서 나왔다. GPS는 군사 항법 시스템이었고, 음성인식 연구는 NSA가 자금을 댔다. 마이크로프로세서, 반도체, 위성 통신 — 지금 우리가 매일 쓰는 기술의 상당수가 군사 연구에서 파생됐다. 실리콘밸리의 기반 자체가 군사 기술 위에 세워졌다.


이 관계가 어색해진 건 베트남전 이후다. 1960~70년대, 반전 운동이 대학과 연구소를 휩쓸었다. MIT 학생들이 국방부 자금을 받는 연구실 앞에서 시위를 벌였다. "과학자들이여, 전쟁 기계의 부속품이 되지 마라." 스탠퍼드는 DARPA 연구소를 캠퍼스 밖으로 이전했다. 컴퓨터 과학자들이 "우리 기술이 사람을 죽이는 데 쓰여선 안 된다"고 선언하기 시작했다. 특히 상징적이었던 건 1969년, MIT 연구자들이 주도한 '3월 4일 운동'이다.


수백 명의 과학자와 공학자가 하루 동안 업무를 중단하고, 군사 연구의 윤리적 문제를 토론했다. 이것은 하나의 전환점이었다. 기술을 만드는 사람들이, 그 기술의 용도에 대해 책임을 질 수 있다는 인식. 그 인식이 실리콘밸리의 DNA에 각인됐다. 기술은 세상을 더 좋게 만들기 위한 것이다. 군과는 거리를 둔다. "Don't be evil."


1990년대부터 2010년대까지, 이 정서는 실리콘밸리의 문화적 기반이었다. 페이스북은 "사람들을 연결한다"고 했고, Google은 "세상의 정보를 정리한다"고 했다. 기술 기업의 미션 선언문에 '국방'이나 '군사'는 등장하지 않았다.


세상을 바꾸겠다는 선언은 있었지만, 그 '바꿈'의 방향에 폭탄은 포함되지 않았다.


물론 실제로는 국방부 계약이 계속 존재했지만 — 마이크로소프트의 JEDI 클라우드 계약, Amazon의 CIA 클라우드 서비스, IBM의 오래된 국방 파트너십 — 적어도 공개적으로는 거리를 두는 것이 문화적 규범이었다. 군사 계약은 조용히 했고, 채용 페이지에는 "세상에 영향을 미치세요"가 적혀 있었다. 그 '영향'의 의미가 바뀐 건 나중의 일이다.


이 정서의 절정이 2018년이었다. Google 직원 3,100명이 청원서를 냈다. "우리는 전쟁 사업에 관여해서는 안 된다." 십여 명이 사직했다. 이에 Google은 국방부의 Project Maven — 드론 영상을 AI로 분석하는 프로그램 — 에서 철수했다. 자사 AI 윤리 원칙에 "무기 또는 사람에게 해를 끼치도록 설계된 기술은 추구하지 않는다"는 문장을 명시했고 실리콘밸리의 반전 정서가 실질적인 기업 결정으로 이어진 역사적 순간이었다.


그로부터 8년이 지났다.

분위기는 완전히 뒤집혔다.


무엇이 바뀌었나. 세 가지다.


첫째, 전쟁이다. 2022년 러시아의 우크라이나 침공 이후, AI의 군사적 가치가 실전으로 증명됐다. 상용 드론에 AI 소프트웨어를 탑재해 정찰과 타격을 수행하는 모습이 전 세계에 생중계됐다. Palantir의 소프트웨어가 우크라이나군의 전장 인식에 결정적 역할을 했다. 러시아의 침략에 맞서 싸우는 우크라이나를 돕는 것 — 이것은 도덕적으로 정당화할 수 있었다. "AI를 군에 제공하지 않겠다"는 입장이 "러시아의 침략을 돕는 것"이라는 비판에 직면했다.


둘째, 중국이다. 시진핑 정부는 2017년에 '2030년까지 AI 세계 1위'를 국가 전략으로 선언했다. 중국군은 AI 기반 전장 인식, 자율 무기, 사이버전 도구에 대규모 투자를 하고 있다. 미국의 AI 기업들이 국방부와 협력을 거부하면 기술 격차가 벌어진다는 논리가 힘을 얻었다.

이 논리는 냉전 시대 군비 경쟁과 본질적으로 같다. 그때는 핵이었고, 지금은 AI다. "상대가 개발하니까 우리도 해야 한다." 설득력이 있다. 나도 이 논리를 완전히 부정하기는 어렵다. 문제는, 이 논리에는 상한선이 없다는 것이다. 상대가 자율 무기를 개발하면 우리도? 상대가 AI 감시를 하면 우리도? 경쟁 논리만으로는 어디서 멈춰야 하는지 알 수 없다. 그리고 '중국이 하니까'라는 논리는 역사적으로 민주주의 국가가 자국민의 권리를 침해할 때 가장 자주 쓰는 명분이기도 하다.


셋째, 돈이다. 2026 회계연도 국방부 AI/자율 연구 예산은 142억 달러다. Palantir는 미 육군과 100억 달러 규모의 소프트웨어/데이터 계약을 맺었다. Maven 프로그램의 계약 상한은 13억 달러로 증액됐다. Replicator 프로그램에만 10억 달러가 투입됐다. 이 프로그램의 목표는 단순하다. 수천 대의 자율 드론과 무인 시스템을 빠르게 만들어서 배치하는 것이다. 기존 방산 산업의 느린 조달 과정을 우회하여, 실리콘밸리식 빠른 개발 사이클을 군사 시스템에 적용한다. '빠르게 만들고, 빠르게 배치하고, 빠르게 반복한다.' 소프트웨어 스타트업의 언어가 무기 개발에 그대로 적용되고 있다. Palantir, Anduril, SpaceX가 기존 방산 대기업 — 록히드마틴, 레이시온 — 에 도전하는 실리콘밸리 방산 컨소시엄을 구성했다.


Anduril만 봐도 흐름이 보인다. Palmer Luckey가 2017년에 설립한 이 회사의 기업 가치는 2025년 기준 300억 달러를 넘었다. 국경 감시 타워에서 시작해, 이제는 자율 드론, 해저 무인 잠수정, 전투 관리 시스템까지 만든다. Luckey는 이렇게 말한 적이 있다. "실리콘밸리의 최고 인재들이 더 이상 광고 클릭을 최적화하는 데 머물지 않고, 국가 안보를 위해 일하게 만들고 싶다." 매력적인 서사다. 하지만 '국가 안보를 위해'라는 명분에 상한선이 없다면, 그건 서사가 아니라 백지수표다.


'전쟁은 싫지만 돈은 좋다'는 아무도 입 밖에 내지 않는다. 하지만 142억 달러짜리 시장이 열리면 원칙은 수정되기 마련이다. 우크라이나라는 도덕적 명분, 중국이라는 안보적 명분, 그리고 142억 달러라는 경제적 명분. 이 세 가지가 합쳐지면, '원칙'은 감당할 수 없는 사치가 된다. 적어도 대부분의 기업에게는.



모두가 서명할 때

Google부터 보자.


2018년에 Maven에서 철수하고 AI 윤리 원칙에 무기 금지를 명시한 바로 그 Google이, 2025년 2월 4일 AI 원칙에서 "무기 또는 사람에게 해를 끼치도록 설계된 기술을 추구하지 않는다"는 문구를 삭제했다. 그것만이 아니었다. "감시", "국제법 위반", "전반적인 해악"에 관한 금지 조항까지 통째로 지웠다. 2018년에 3,100명의 직원이 들고 일어나서 만들어낸 원칙이었다. 일부는 사직까지 했다. 7년 만에, 그 원칙의 핵심이 웹사이트에서 사라졌다. 조용히.


같은 해 7월, Google은 국방부의 GenAI.mil 플랫폼에 Gemini를 올려놓았다. 군 300만 명이 사용 대상이다. 물론 드론 영상 분석과 행정 AI는 성격이 다르다고 할 수 있다. 하지만 7년 전에 사직까지 불사한 직원들이 지금 이걸 보면 어떤 기분일까. "전쟁 사업에 관여해서는 안 된다"는 선언이 웹사이트에서 삭제되는 걸 보면. 그 선언을 위해 사직서를 냈던 자신의 결정을 어떻게 돌아볼까.


Google만이 아니다.


OpenAI의 변화가 가장 극적이다. 이 회사의 역사를 아는 사람이라면, 지금의 모습에 당혹감을 느낄 수밖에 없다.


OpenAI는 2015년, '인류 전체에 이익이 되는 AI'를 만들겠다는 비전으로 비영리 연구소로 출발했다. 일론 머스크와 샘 올트먼이 공동 설립했고, 구글과 페이스북의 AI 독점을 견제하겠다는 것이 명시적 목표였다. 그 OpenAI가 2019년에 영리 법인으로 전환했다. 2023년에는 이사회가 올트먼을 해임했다가 닷새 만에 복귀시키는 소동을 겪었다 — 이사회가 해임 사유로 든 것은 "회사의 사명에 대한 솔직하지 못한 태도"였다. 이 소동 이후, 안전 연구를 주도하던 일리아 수츠케버가 떠났다. 수석 안전 연구원 얀 레이케도 떠났다. 회사의 안전 문화를 지키던 사람들이 연달아 사라졌다.


그리고 2024년 1월, 이용약관에서 '군사 및 전쟁(military and warfare)' 금지 조항이 삭제됐다. 발표도, 설명도, 사전 고지도 없이. 조용히. 같은 해 12월에는 방산 기업 Anduril과 손잡고 대드론 방어 시스템 개발에 착수했다. 2025년에는 국방부와 2억 달러 계약을 체결하고, GenAI.mil에 ChatGPT를 통합했다. '인류 전체에 이익이 되는 AI'에서 시작해서, 비영리에서 영리로, 안전 연구자 이탈, 군사 금지 삭제, 2억 달러 국방 계약까지. 10년이 채 안 걸렸다.


OpenAI의 원래 이름이 뜻하는 바를 생각하면 — open, 개방 — 군사 계약을 조용히 삭제하는 방식은 이름에 대한 배신이다.


Meta는 Anduril과 군사용 AR 헤드셋 'EagleEye'를 공동 개발 중이다. 전장에서 병사 눈앞에 실시간 정보를 띄워주는 제품이다. 적의 위치, 아군의 배치, 드론 영상, 열화상 데이터가 시야에 겹쳐 표시된다. Meta의 Llama AI 모델과 Anduril의 지휘통제 소프트웨어 Lattice가 결합된다. VR로 메타버스를 꿈꾸던 회사가, 이제는 AR로 전쟁터를 본다. 재밌는 건 Anduril을 창업한 Palmer Luckey가 원래 Oculus의 창업자라는 사실이다. VR 헤드셋을 만들던 사람이, 이제는 전쟁용 헤드셋을 만든다. 기술은 같다. 방향만 다르다. 메타버스에서 아바타를 보던 눈이, 이제는 전장에서 타겟을 본다.


xAI는 국방부와 2억 달러 계약을 체결하면서 'Any Lawful Use' 조건에 서명했다. 합법이기만 하면 어디든 쓰라는 뜻이다. 조건 없음. 제한 없음. 엘론 머스크가 만든 AI 회사가 국방부에 무조건적 사용권을 넘긴 것이다. 머스크는 동시에 정부효율부(DOGE)의 수장으로서 연방 기관의 데이터에 접근하고 있다. AI 기술을 국방부에 제공하면서, 다른 한 손으로는 정부 데이터를 장악한다. 이해충돌이라는 단어로는 부족하다. 엘리자베스 워런 상원의원이 Grok의 허위정보 생성 이력을 들어 의문을 제기했지만, 계약은 그대로 진행됐다.


이 흐름이 하나의 장면으로 모인 것이 2025년 7월이다. 국방부는 4개 AI 기업 — Anthropic, OpenAI, Google, xAI — 에 각각 최대 2억 달러 규모 계약을 제안했다. 조건은 하나. "모든 합법적 용도(Any Lawful Use)"에 사용할 수 있어야 한다. 합법이기만 하면 자율 무기에도, 대규모 감시에도, 국방부가 원하는 어떤 용도에든 쓸 수 있어야 한다는 뜻이다.


2018년까지의 실리콘밸리 문화적 합의는 "군사 AI에 거리를 둔다"였지만. 7년 만에 그 합의는 "국방부가 요구하는 모든 용도에 조건 없이 기술을 제공한다"로 바뀌었다. 거리두기에서 무조건적 복종으로. 그 사이에 있었던 것은 전쟁, 경쟁, 그리고 돈이다.



3개사는 서명했다. Anthropic만 거부했다.


'Any Lawful Use'가 실제로 의미하는 바를 짚고 넘어가자. 이 문구는 간결하지만, 그 함의는 광범위하다. '합법적'이라는 말은 '윤리적'이라는 말과 다르다. 미국 법상 현재 자율 무기 사용을 금지하는 연방법은 없다. AI 기반 대규모 감시를 전면 금지하는 법도 없다. 국방부가 AI를 써서 미국 국경에서 이민자를 추적하는 것은 합법이다. AI를 써서 시위 참가자의 얼굴을 식별하는 것도, 적절한 법적 근거가 있으면 합법이다. 'Any Lawful Use'에 서명한다는 건, 이 모든 용도에 대해 "우리 기술을 쓰세요"라고 백지 위임하는 것이다.


역사를 보면, '합법이니까 괜찮다'는 논리가 얼마나 위험한지 알 수 있다. 일본계 미국인 강제 수용은 합법이었다 — 대법원이 합헌 판결을 내렸다. 맥카시즘 시대의 충성심 심사도 합법이었다 — 의회가 승인한 절차였다. NSA의 대규모 통신 감시 프로그램도, 밝혀지기 전까지는 FISA 법원의 비밀 승인 위에서 운영됐다. 모두 합법이었다. 모두 사후에 잘못된 것으로 판명됐다. '합법'은 '정당함'의 보증이 아니다. 특히 국가 안보를 명분으로 하는 경우에는 더더욱 그렇다 — 국가 안보라는 네 글자 앞에서 법적 기준은 놀랍도록 유연해진다.


그래서 Anthropic의 거부가 의미를 갖는다. "합법이면 다 된다"가 아니라, "합법이더라도 이것은 안 된다"는 선을 긋는 것. 이것은 기업이 법보다 높은 기준을 스스로에게 적용하겠다는 선언이다.


나는 이것을 '윤리적 마진(ethical margin)'이라고 부르고 싶다. 법이 허용하는 것과, 기업이 허용하는 것 사이의 간극. 이 간극이 넓을수록 사회의 안전망이 두꺼워진다. 법은 늘 기술보다 뒤처진다. AI 자율 무기를 규제하는 법이 존재하지 않는 지금, 그 간극 — 법이 미처 다루지 못하는 영역에서 기업이 스스로 설정하는 경계 — 이 유일한 견제다. 법이 따라올 때까지, 그 간극이 견제의 공간이다.



견제 없는 AI의 현재 — 가자

Anthropic이 왜 선을 긋는지 이해하려면, 선이 없을 때 무슨 일이 벌어지는지 먼저 봐야 한다.


2023년 10월 7일, 하마스의 이스라엘 공격 직후 이스라엘군은 가자지구에 대한 대규모 보복 작전을 개시했다. 이 작전의 핵심에 AI가 있었다. 이 사실은 이스라엘의 독립 매체 +972 매거진과 Local Call의 탐사보도로 세상에 알려졌다. 기자 유발 아브라함이 이스라엘군 정보 장교 6명을 직접 인터뷰한 결과물이다.


이스라엘군 정보 부서는 'The Gospel(하브소라)'이라는 AI 시스템을 운용하고 있었다. 이 시스템의 기능은 간단하다. 폭격 대상을 추천하는 것이다. 감시 데이터, 통신 정보, 위성 영상을 종합하여 "이 건물은 군사 목표물이다"라는 판단을 내린다. 과거 이스라엘군의 인간 분석관들이 연간 약 50개의 타겟을 생성했다면, The Gospel은 하루에 100개의 타겟을 쏟아냈다. 전 이스라엘군 참모총장 아비브 코하비가 직접 밝힌 숫자다. 한 이스라엘군 정보 관계자는 +972에 이렇게 말했다.


"그것은 사실상 대량 암살 공장이었다."


하루 100개. 이 숫자가 의미하는 바를 생각해보자. 인간 분석관이 1년에 50개를 처리할 때는, 각 타겟에 대한 검증과 맥락 파악에 상당한 시간을 들일 수 있었다. 이 건물이 정말 군사 목표물인지, 민간인은 없는지, 주변에 학교나 병원은 없는지. AI가 하루에 100개를 쏟아내면, 그런 검토가 불가능해진다. 속도가 신중함을 압도한다.


The Gospel만이 아니었다. 이스라엘군은 'Lavender'라는 또 다른 AI 시스템을 배치했다. The Gospel이 건물과 시설을 대상으로 했다면, Lavender는 사람을 대상으로 했다. 가자지구 거주민 중 '하마스 전투원으로 의심되는 사람'을 식별하여 목록을 만드는 시스템이다.


이 목록에 올라간 사람의 수는 37,000명이다.


37,000명. 가자지구 전체 인구가 약 200만 명이다. 그중 37,000명이 AI에 의해 '의심되는 전투원'으로 분류됐다. 인구의 거의 2%다.

Lavender가 이 37,000명을 식별하는 데 사용한 데이터는 휴대전화 사용 패턴, 소셜 미디어 활동, 접촉 네트워크, 위치 정보 등이다. AI가 이 데이터를 종합해서 '이 사람은 전투원일 확률이 높다'는 판단을 내린다. 문제는 오류율이다. 이스라엘군 내부에서조차 Lavender의 오류율이 약 10%라는 점이 알려져 있었다. 37,000명 중 약 3,700명은 전투원이 아닌 민간인이라는 뜻이다.


그리고 이 사실은 용납됐다.


인간 검토가 있었냐고 물을 수 있다. 있었다. Lavender가 타겟을 추천하면 인간 장교가 이를 승인해야 했다. +972의 보도에 따르면, 이 승인에 걸리는 시간은 평균 약 20초였다. AI가 수십 가지 데이터를 종합해서 내린 판단을 인간이 20초 만에 검토한다. 장교들 스스로 이것을 "도장 찍기(rubber stamp)"라고 표현했다. 이것을 '인간의 개입(human-in-the-loop)'이라고 부를 수 있을까.


더 충격적인 것은 민간인 사상 허용 기준이다. +972의 조사에 따르면, 이스라엘군은 하마스의 하급 전투원 한 명을 타격할 때 최대 15~20명의 민간인 부수적 사상을 허용했다. 하마스 고위 지휘관의 경우, 이 숫자는 100명 이상까지 올라갔다.


1명을 죽이기 위해 100명의 민간인 사망을 감수한다.


이스라엘군은 여기에 'Where's Daddy?'라는 시스템까지 추가했다. 이름부터 소름이 끼친다. 이 시스템은 타겟이 자신의 집에 돌아갔는지를 추적한다. 돌아갔다고 판단되면 — 가족이 함께 있는 밤 시간에 — 폭격을 승인한다. 한 정보 장교의 말을 빌리면, "우리는 작전 중인 전투원을 타격하는 데 관심이 없었다. 반대로, 이스라엘군은 그들이 집에 있을 때 주저 없이 폭격했다. 집을 폭격하는 게 훨씬 쉬우니까." 군사 목표물이 아니라 거주지를. 전투 중이 아니라 잠들어 있을 때를.


이 모든 것의 배경에 기술 인프라가 있다.


Google과 Amazon은 2021년 이스라엘 정부와 12억 달러 규모의 'Project Nimbus' 클라우드 계약을 체결했다. 이스라엘 군과 정보기관에 클라우드 컴퓨팅과 AI 서비스를 제공하는 계약이다. 유출된 계약 조건에 따르면, Google과 Amazon은 이스라엘이 자사 제품을 어떻게 사용하든 — 자사 서비스 약관을 위반하더라도 — 제한하지 않기로 합의했다. Google 직원 수십 명이 이 계약에 반대하는 서한에 서명했고, 일부는 해고됐다. 계약은 그대로 진행됐다.


나는 이 이야기를 처음 읽었을 때, 숫자들 사이에서 한참을 멈춰야 했다. 37,000명의 목록. 10%의 오류율. 20초의 검토. 100명의 민간인 허용치. 이 숫자들은 추상적인 정책 논쟁이 아니다. 각각의 숫자 뒤에 실제 사람이 있다. 잠을 자다가 폭격당한 가족이 있다. 전투원이 아닌데 목록에 올라간 3,700명이 있다. 20초 만에 삶과 죽음이 결정된 사람들이 있다.


그리고 이 모든 것은 '인간의 개입'이 있는 상태에서 벌어졌다. 형식적으로는 사람이 승인 버튼을 눌렀다. 다만 그 승인에 20초가 걸렸을 뿐이다.


만약 이 AI 시스템들을 개발한 기업이 "자율 무기와 대규모 감시에는 쓸 수 없다"는 조건을 걸었다면, 상황이 달라졌을까? 솔직히 모르겠다. 한 기업이 거부해도 다른 기업이 대체할 수 있다. 이스라엘군은 자체 기술도 보유하고 있다.


하지만 적어도 이것은 확인할 수 있다. 견제가 없을 때 AI 군사 기술이 어디까지 가는지. 하루 100개의 폭격 타겟. 37,000명의 킬 리스트. 20초의 인간 검토. 1명을 위한 100명의 사망 허용. 이것이 견제 없는 AI 군사 활용의 현재다.


가자에서 벌어진 일이 '이스라엘만의 문제'라고 생각하기 쉽다. 아니다. 이것은 AI 군사 기술이 대규모로 실전 배치된 최초의 사례다.


Lavender, The Gospel, Where's Daddy는 다른 나라의 군대가 아직 도입하지 않았을 뿐, 기술적으로 불가능한 것이 아니다. 미국의 Replicator 프로그램은 수천 대의 자율 드론을 신속 배치하는 것이 목표다. 국방부가 AI 기업들에게 'Any Lawful Use' 조건을 요구하는 것은, 바로 이런 시스템의 개발과 배치를 염두에 둔 것이다. 가자는 미래의 전쟁이 아니다. 현재의 전쟁이다. 그리고 이 현재가 다른 나라로 확산되는 것은 시간문제다.



Anthropic이 그은 선

다시 카라카스로, 그리고 Anthropic으로 돌아오자.


Anthropic을 이해하려면 이 회사가 어떻게 태어났는지를 알아야 한다. 2021년, 다리오 아모데이와 다니엘라 아모데이 남매가 OpenAI를 떠났다. 이유는 안전이었다. OpenAI가 GPT-4를 개발하면서 안전 연구보다 성능 경쟁을 우선시하고 있다는 판단이었다. 그들과 함께 OpenAI의 안전 연구 핵심 인력 십여 명이 함께 나왔다. Anthropic은 말 그대로 '안전에 대한 불만'에서 태어난 회사다.


이 회사의 첫 번째 주요 연구 성과는 Constitutional AI — AI 스스로 자신의 출력을 검열하고 수정하도록 만드는 기법이다. 두 번째는 Responsible Scaling Policy — AI의 위험도가 높아질수록 더 엄격한 안전 기준을 적용하는 단계적 프레임워크다.


이 배경을 알면, 군사 AI에 대한 Anthropic의 태도가 좀 더 맥락 안에서 읽힌다. 이 회사는 '안전'을 사후에 추가한 것이 아니라, 안전에 대한 불만에서 태어났다. 물론 태생이 곧 현재를 보장하지는 않는다. OpenAI도 '인류 전체의 이익'을 위해 태어났지만, 10년이 채 안 되어 국방 계약을 맺고 있다. 기원이 운명은 아니다. 하지만 적어도 설명의 일부는 된다.


거부한 이유를 보면, Anthropic이 군사 활용 자체를 반대하는 건 아니라는 걸 알 수 있다. 2억 달러 계약은 체결했다. 군사 행정, 물류 최적화, 정보 분석에 Claude를 사용하는 것에는 동의했다. 다만 두 가지에는 선을 그었다. 미국 국민에 대한 대규모 감시. 인간 개입 없는 완전 자율 무기. 이 두 가지만큼은 안 된다는 것이다.


가자에서 일어난 일을 떠올리면, 이 두 가지 레드라인이 왜 중요한지 선명해진다. Lavender는 대규모 감시의 산물이다 — 200만 가자 주민의 통신과 행동 패턴을 AI가 분석한 결과다. 20초짜리 인간 검토는 사실상 자율 무기와 다름없다 — 형식적으로만 인간이 개입할 뿐, 실질적 판단은 AI가 내린다. Anthropic이 정확히 이 두 가지에 선을 그은 것은 우연이 아닐 수 있다. 이미 벌어지고 있는 일을 알고 있기에 그 선을 긋는 것이다.

CEO 다리오 아모데이는 — 자사 AI가 실탄이 오간 작전에 쓰인 직후인 — 2026년 1월에 38페이지짜리 에세이를 발표했다. '기술의 사춘기(The Adolescence of Technology)'. 제목부터 흥미롭다. 기술을 사춘기에 비유한다. 사춘기의 특징은 능력은 급격히 성장하는데, 그 능력을 통제하는 판단력은 아직 성숙하지 않은 시기라는 것이다. AI가 정확히 그 상태라고 아모데이는 본다.


이 에세이를 처음 읽었을 때, 한 문장이 머릿속에 박혔다. "AI는 민주주의 국가의 국방을 모든 방면에서 지원해야 한다. 단, 우리를 독재 체제의 적국과 닮게 만드는 방식은 제외해야 한다."

이 문장이 흥미로운 건, '군사 AI 반대론'이 아니라는 점이다. 오히려 반대다. 아모데이는 AI가 국방에 필수적이라고 인정한다. 중국과 러시아가 AI 군비 경쟁에 뛰어든 상황에서 미국만 물러서는 건 현실적이지 않다고 말한다. 순진한 평화주의가 아니라, 경계선을 정하자는 제안이다.

아모데이가 경고한 네 가지가 있다. 자율 무기 드론 군단. AI 기반 국내 감시. AI 기반 검열. AI를 활용한 경제 통제.


이 네 가지는 독재 국가들이 이미 추구하는 것들이다. 중국의 사회신용제도는 AI 기반 경제 통제의 초기 형태다. 러시아의 인터넷 감시 체계 SORM은 AI로 강화되고 있다. 이스라엘의 Lavender는 AI 기반 대규모 감시의 실전 배치다. 아모데이가 경고한 것들이 이미 현실에서 작동하고 있다.


그리고 솔직히, 민주주의 국가들이 이 유혹에서 자유롭다고 보기도 어렵다. 에드워드 스노든이 2013년에 폭로한 NSA의 PRISM 프로그램을 기억하는가. 미국 정부가 Google, Facebook, Apple, Microsoft의 서버에 직접 접근하여 자국민과 외국인의 통신을 대규모로 감시하고 있었다. 기술이 있으면 쓰게 된다. 민주주의라고 예외는 아니다. 그래서 기술을 만드는 기업이 선을 긋는 것이 중요하다.


아모데이의 에세이에서 인상적이었던 건, 그가 Anthropic을 순수한 도덕적 주체로 포장하지 않았다는 점이다. 솔직함이 있었다. "이것은 선과 악의 문제가 아니라 설계의 문제다." 기술을 어떻게 배치하느냐에 따라 민주주의를 지킬 수도, 독재를 강화할 수도 있다. 같은 AI가 테러리스트를 추적할 수도 있고, 반정부 시위대를 추적할 수도 있다. 차이는 기술에 있지 않다. 기술의 사용에 걸린 제한에 있다.


하지만 이 에세이가 발표된 후 국방부의 반응은 냉담했다. 피트 헤그세스 장관은 이 거부를 용납하지 않았다. 2026년 2월, Anthropic을 '공급망 위험(supply chain risk)'으로 지정하는 방안을 검토하기 시작했다.

공급망 위험 지정은 이런 뜻이다. 국방부와 거래하는 모든 기업이, 자사 시스템에서 Claude를 쓰지 않는다는 걸 증명해야 한다. Anthropic에 따르면, 미국 10대 기업 중 8개가 Claude를 쓰고 있다. 사실상 미국 산업 전체에 "Claude를 쓰지 말라"는 압박이다. 마감일은 2026년 7월 11일. 이 날까지 모든 AI 제공업체가 'Any Lawful Use' 조건에 서명해야 한다.


이것은 단순한 계약 분쟁이 아니다. 정부가 기업에 "우리 말을 들어라, 아니면 시장에서 퇴출시키겠다"고 위협하는 것이다. 기업의 기술적 판단 — 자율 무기에 쓰여선 안 된다는 — 을 정부가 경제적 압력으로 꺾으려는 것이다. 아모데이가 경고한 네 가지 — 자율 무기, 감시, 검열, 경제 통제 — 중 경제 통제가 이미 시작되고 있는 셈이다.


이 상황을 가장 적나라하게 보여주는 건, Anthropic 내부에서 일어난 일이다. 2026년 2월, Anthropic의 안전장치 연구팀장 Mrinank Sharma가 갑작스럽게 사직했다. "세계가 위험에 처해 있다"는 경고와 함께. 안전장치를 만드는 사람이 떠났다. 이 사건의 타이밍을 주목해야 한다. 마두로 작전 이후, 국방부의 공급망 위험 압박이 시작된 직후다.


OpenAI에서도 비슷한 일이 있었다. 얀 레이케는 안전 연구팀을 이끌다가 2024년에 사직하며 "안전 문화가 뒷전으로 밀렸다"고 공개적으로 비판했다. 일리아 수츠케버는 GPT-4의 안전 문제를 우려하며 떠났다. Anthropic의 Sharma, OpenAI의 레이케와 수츠케버 — AI 안전을 연구하는 사람들이 연달아 떠나는 현상은, 이 회사들 내부에서 안전과 성장 사이의 긴장이 어디로 향하고 있는지를 보여준다.


외부의 압박이 내부의 안전장치 연구를 위축시키고 있는지, 아니면 안전 연구자들이 자신의 일이 실제로 반영되지 않는다는 좌절감에 떠나는 것인지는 아직 모른다. 어느 쪽이든 좋은 징조는 아니다. 견제를 주장하는 회사의 견제를 만드는 사람이 떠나고 있다.



브랜딩이면 어떤가

여기서 냉소적인 질문이 가능하다. 이거 결국 브랜딩 아닌가?


솔직히, 나도 처음에는 그렇게 봤다. 'AI 안전'은 Anthropic의 창업 서사이자 차별화 전략이다. 2021년, OpenAI에서 나온 사람들이 "우리는 더 안전하게 만들겠다"며 세운 회사다. 다리오 아모데이와 다니엘라 아모데이 남매가 OpenAI의 안전 연구에 불만을 품고 독립했다. 다른 회사들이 속도와 규모로 경쟁할 때, Anthropic은 "우리는 책임감 있게 만든다"를 내세웠다. Constitutional AI라는 안전 기법을 개발했고, Responsible Scaling Policy라는 단계별 안전 프레임워크를 발표했다.


군사 AI에 선을 긋는 건 그 브랜딩의 연장선일 수 있다. 순수한 윤리적 신념이 아니라 시장에서 살아남기 위한 포지셔닝. 기업용 AI 시장에서 "우리 AI는 안전합니다"라고 말할 수 있는 것은 경쟁 우위다. 특히 AI의 안전성에 대한 우려가 커지는 시장에서는.


이 해석은 틀리지 않다. Anthropic이 수익도 포기하지 않았다 — 2억 달러 계약은 체결했다. 완전한 거부가 아니라 조건부 참여다. 안전 이미지를 유지하면서 돈도 버는 계산이 깔려 있을 수 있다. 회사는 회사다. 연간 수십억 달러의 적자를 내면서 AI를 개발하는 스타트업이 도덕적 순수성만으로 운영될 수 있다고 믿는 것은 순진하다.


그런데 국방부가 '공급망 위험'으로 보복하겠다고 나선 걸 보고 생각이 바뀌었다.

만약 이 거부가 말뿐인 브랜딩이었다면, 국방부가 이렇게까지 반응할 이유가 없다. 헤그세스 장관이 마감일까지 정해가며 압박하는 건, 이 거부가 실제로 국방부의 전략에 제약을 걸고 있기 때문이다. 미국 10대 기업 중 8개가 쓰는 AI를 시장에서 퇴출하겠다는 위협은, 상대가 진짜로 뭔가를 막고 있을 때만 나온다.

누군가 당신의 브랜딩에 분노한다면, 그건 이미 브랜딩이 아니다. 실제로 뭔가를 막고 있다는 뜻이다.

Gizmodo는 이 상황을 이렇게 묘사했다. "국방부가 Anthropic에 격분했다 — 군대가 하는 모든 일을 맹목적으로 지지하지 않는다는 이유로". Inc.는 Anthropic이 2억 달러 계약을 파기할 수도 있다고 보도했다. 브랜딩만으로 2억 달러를 걸지는 않는다.


그리고 이것을 생각해보자. 동기가 뭐든, 결과는 같다.

견제의 핵심은 동기가 아니다. 존재 자체다.


Anthropic이 진심으로 AI 안전을 믿어서 거부하든, 시장에서 차별화하려고 거부하든, "AI 기업이 국방부에 무조건 복종하지 않아도 된다"는 선례가 만들어진다. 지금 이 선례가 없다면, 7월 11일 이후 모든 AI 기업은 국방부가 요구하는 모든 용도에 기술을 제공해야 한다. 선례 하나의 유무가 만드는 차이는 그 정도다.


민주주의 사회에서 견제가 작동하는 방식을 생각하면 이해가 된다. 언론이 권력을 비판할 때, 그 동기가 100% 순수한 공익인 경우는 드물다. 클릭 수, 시청률, 광고 수익이 동기에 섞여 있다. 내부고발자가 부정을 폭로할 때, 개인적 원한이 섞여 있는 경우도 많다. 그래서 비판이 무가치한가? 아니다. 동기가 복합적이어도 비판이 실제로 작동하면 — 정보가 공개되고, 논의가 촉발되고, 정책이 수정되면 — 견제는 성공한 것이다.

Anthropic의 거부도 마찬가지다. 동기가 순수하든 계산적이든, 국방부가 '모든 AI 기업의 무조건적 복종'을 당연시할 수 없게 만들었다면, 그것으로 충분하다. 견제의 가치는 견제하는 사람의 순수성이 아니라, 견제의 실효성에 있다.


Patagonia를 생각해보자. 이 회사는 "지구가 우리의 유일한 주주"라고 선언하며 환경 보호를 브랜드 핵심에 놓았다. 냉소적으로 보면 이것도 브랜딩이다. 환경 의식이 높은 소비자를 공략하는 마케팅 전략. 하지만 Patagonia가 실제로 소송을 걸고, 토지를 보전하고, 공급망을 바꾸면서 환경 보호에 기여한 것은 사실이다. 동기가 뭐든, 효과가 있다.


기업의 견제는 원래 이렇게 작동한다. 순수한 도덕적 주체가 아니라, 시장 논리와 윤리적 판단이 뒤섞인 채로 작동한다. 완벽하지 않다. 때로는 위선적이다. 하지만 그런 불완전한 견제조차 없는 것보다는 낫다. 완벽한 견제만 인정하겠다는 태도는 사실상 견제를 포기하겠다는 것과 같다. 완벽한 견제는 현실에 존재하지 않기 때문이다.


다만 한 가지 경고가 필요하다. Google의 사례를 보라. 2018년에 3,100명이 들고 일어나서 Maven 철수라는 선례를 만들었다. AI 윤리 원칙까지 만들었다. 7년 뒤, 같은 회사가 같은 국방부에 AI를 납품하고, 그 윤리 원칙에서 무기 금지 문구를 삭제했다.


선례는 만드는 것보다 지키는 것이 어렵다.


Anthropic의 거부가 진짜 의미를 갖는 건, 그것이 7월 11일 이후에도 유지될 때뿐이다. 공급망 위험 지정이라는 경제적 압박 앞에서, 2억 달러 계약 파기의 가능성 앞에서, 이 선이 지켜질지는 아직 모른다. 아직은 지켜봐야 한다.



견제의 존재

2025년 11월, UN 총회는 자율무기시스템 규제 결의안을 표결에 부쳤다. 찬성 164, 반대 6. 반대한 나라는 미국, 러시아, 이스라엘, 벨라루스, 북한, 부룬디.


이 명단을 한번 천천히 읽어보라. 미국이 러시아, 북한과 같은 편에 있다. 아모데이가 경고한 것이 바로 이것이다 — 독재 체제의 적국과 닮아가는 것. 자율 무기 규제에 반대하는 6개국의 면면을 보면, 국가는 스스로를 견제하지 않는다는 사실이 선명해진다.


ICRC(국제적십자위원회)는 UN 안전보장이사회에서 이렇게 발언했다. "우리는 AI가 감독과 규제 없이 전장에 배치되도록 내버려둘 수 없다." 하지만 미국은 반대표를 던졌다. 142억 달러의 AI 군사 예산을 편성하고, AI 기업들에게 '모든 합법적 용도'를 요구하면서, 동시에 자율무기 규제에 반대한다. 국가 차원에서 견제가 작동하지 않는다.


핵무기와 비교하면 상황의 심각성이 드러난다. 핵무기는 비확산조약(NPT)이 있다. 화학무기는 화학무기금지협약(CWC)이 있다. 생물무기, 대인지뢰, 확산탄 — 모두 국제 조약으로 규제된다. 완벽하지는 않지만, 적어도 '이것은 금지된 무기'라는 국제적 합의가 존재한다.


자율 무기에는 그런 합의가 없다.


164개국이 규제하자고 했는데 6개국이 막고 있다. 그리고 그 6개국 중 하나가, 세계에서 가장 강력한 AI를 보유한 나라다.


이스라엘의 사례는 그 결과를 보여준다. The Gospel이 하루에 100개의 폭격 타겟을 쏟아내고, Lavender가 37,000명의 킬 리스트를 만들고, 인간이 20초 만에 폭격을 승인한다. 국가가 스스로를 견제하지 않을 때, AI의 군사적 사용이 어디까지 가는지를 가자가 보여주고 있다.


국가가 안 하면 민간이라도 해야 한다.


나는 Anthropic이 완벽한 회사라고 생각하지 않는다. 완벽할 필요도 없다고 생각한다. 2억 달러 계약을 체결한 것 자체가 군사 AI에 참여하는 것이다. 안전장치 연구팀장이 사직한 것은 내부에 문제가 있다는 신호일 수 있다. 브랜딩 동기가 섞여 있을 가능성을 부인할 이유도 없다. 이 회사가 7월 11일에 결국 굴복할 가능성도 배제할 수 없다. 그리고 마두로 작전에서 보았듯, 이 회사의 레드라인은 이미 한 번 넘어졌다. Palantir의 플랫폼 위에서, Anthropic이 금지한 방식으로 Claude가 쓰였다. 사후에 항의하는 것과 사전에 막는 것은 다르다.


하지만 지금 이 순간, 미국의 주요 AI 기업 중 국방부의 'Any Lawful Use' 조건에 '아니요'라고 말한 회사는 하나뿐이다.


그 하나가 있다는 것과 없다는 것의 차이는 크다.


7월 11일 이후를 상상해보자. 만약 Anthropic이 굴복하면 — 공급망 위험 지정의 압박에 못 이겨 'Any Lawful Use'에 서명하면 — 무슨 일이 벌어지는가. 미국의 4대 AI 기업 모두가 국방부의 무조건적 사용 요구에 동의한 상태가 된다. 이후 다른 나라의 AI 기업도 자국 국방부의 비슷한 요구에 거부할 근거를 잃는다. "미국 기업들도 다 동의했는데, 왜 거부하느냐?" 견제의 선례가 사라지면, 전 세계적으로 AI 군사 활용의 제한이 무너진다.


반대로, 만약 Anthropic이 버티면 — 2억 달러 계약 파기와 공급망 퇴출의 위험을 감수하고 선을 지키면 — 다른 기업들에게도 선택지가 생긴다. "거부할 수 있다"는 사실 자체가, 다음번에 비슷한 결정을 내려야 하는 기업의 내부 논의를 바꾼다. 유럽의 AI 기업이, 한국의 AI 기업이, 일본의 AI 기업이 자국 군의 무조건적 사용 요구에 직면했을 때, "Anthropic은 거부했다"는 사실이 참조점이 된다.


선례는 존재하는 것만으로 의미가 있다. 다음에 다른 회사가, 다른 나라에서, 비슷한 상황에 놓였을 때, "거부한 선례가 있다"는 사실 자체가 선택지를 열어준다. 한국의 네이버가, 일본의 소프트뱅크가, 유럽의 미스트랄이 자국 군의 무조건적 사용 요구에 직면했을 때 — "미국에서도 이미 한 회사가 거부했다"는 참조점이 존재하느냐의 차이. '아니요'가 가능하다는 걸 보여주는 것. 반드시 그래야만 한다는 게 아니라, 그럴 수 있다는 것. 선택지가 존재한다는 것 자체가, 선택지가 없는 세계와 근본적으로 다르다.


이 글을 쓰면서 계속 떠오른 이미지가 있다. 2018년에 Google을 떠난 직원들. 그들이 사직서를 내던 날, 자신의 행동이 역사에 남을 것이라고 생각했을까. 7년 뒤에 자기 회사가 무기 금지를 삭제하고 국방부에 AI를 납품할 것이라고 상상했을까. 그들의 사직은 헛된 것이었을까.


나는 아니라고 생각한다. 그 사직이 있었기에, "기업이 군사 AI에 '아니요'라고 말할 수 있다"는 사실이 기록에 남았다. 지금 Anthropic이 할 수 있는 것도, 어쩌면 그 기록 위에 서 있기 때문이다. 견제의 역사는 그렇게 쌓인다. 한 사람의 거부가, 다음 사람의 거부를 가능하게 한다. 완벽하지 않아도. 결국 무너지더라도. 한 번 존재했다는 사실 자체가 다음을 만든다.


견제는 완벽할 필요가 없다. 존재하면 된다.


이 글을 쓰면서 계속 떠오른 이미지가 있다. 2018년에 Google을 떠난 직원들. 그들이 사직서를 내던 날, 자신의 행동이 역사에 남을 것이라고 생각했을까. 7년 뒤에 자기 회사가 무기 금지를 삭제하고 국방부에 AI를 납품할 것이라고 상상했을까. 그들의 사직은 헛된 것이었을까.


나는 아니라고 생각한다. 그 사직이 있었기에, "기업이 군사 AI에 '아니요'라고 말할 수 있다"는 사실이 기록에 남았다. 지금 Anthropic이 할 수 있는 것도, 어쩌면 그 기록 위에 서 있기 때문이다. 견제의 역사는 그렇게 쌓인다. 한 사람의 거부가, 다음 사람의 거부를 가능하게 한다. 완벽하지 않아도. 결국 무너지더라도. 한 번 존재했다는 사실 자체가 다음을 만든다.


MIT의 과학자들이 1969년에 하루 업무를 멈추고 군사 연구의 윤리를 토론했다. Google의 직원들이 2018년에 사직서를 냈다. Anthropic이 2025년에 'Any Lawful Use'를 거부했다. 이 선들은 각각 무너졌거나, 무너질 수 있다. 하지만 선을 그은 행위 자체가, 다음 선을 가능하게 만든다. 1969년의 토론이 2018년의 사직을 가능하게 했고, 2018년의 사직이 2025년의 거부를 가능하게 했다. 견제는 영구적이지 않다. 하지만 누적된다.


하루에 100개의 폭격 타겟을 쏟아내는 AI와, 자율 무기에 선을 긋는 AI 기업은 같은 시대에 존재한다. 37,000명의 킬 리스트를 만드는 알고리즘과, '여기까지'라고 말하는 결정은 같은 기술 위에 서 있다. 차이는 기술에 있지 않다. 그 기술에 무엇을 허용하고 무엇을 금지했느냐에 있다.


Anthropic의 선이 영원히 지켜질 것이라는 보장은 없다. Google의 선은 7년 만에 무너졌다. OpenAI의 선은 2년 만에 삭제됐다. 어쩌면 Anthropic의 선도 7월 11일에, 혹은 그 이후의 어느 시점에 무너질 수 있다. 하지만 선을 긋는 행위 자체는 기록에 남는다. "가능했다"는 사실이 남는다. 그리고 그 기록이, 다음 선을 가능하게 만든다.


경계선을 긋는 사람이 필요하지 않을까. 한 명이라도.



참고 자료

[1] Fox News, "AI Tool Claude Helped Capture Venezuelan Dictator Maduro in US Military Raid," 2026. https://www.foxnews.com/us/ai-tool-claude-helped-capture-venezuelan-dictator-maduro-us-military-raid-operation-report

[2] Axios, "Pentagon Threatens to Cut Off Anthropic in AI Safeguards Dispute," 2026. https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro

[3] The Intercept, "OpenAI Quietly Deletes Ban on Using ChatGPT for Military and Warfare," 2024. https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt/

[4] MIT Technology Review, "OpenAI's New Defense Contract Completes Its Military Pivot," 2024. https://www.technologyreview.com/2024/12/04/1107897/openais-new-defense-contract-completes-its-military-pivot/

[5] PBS NewsHour, "Amid Pressure From Employees, Google Drops Pentagon's Project Maven," 2018. https://www.pbs.org/newshour/show/amid-pressure-from-employees-google-drops-pentagons-project-maven-account

[6] Defense News, "Meta and Anduril Work on Mixed Reality Devices for US Military," 2025. https://www.defensenews.com/pentagon/2025/05/30/meta-and-anduril-work-on-mixed-reality-devices-for-the-us-military/

[7] Axios, "xAI Pentagon Grok Contract," 2025. https://www.axios.com/2025/07/14/xai-pentagon-grok-contract

[8] Axios, "Pentagon Threatens to Label Anthropic a Supply Chain Risk," 2026. https://www.axios.com/2026/02/16/anthropic-defense-department-relationship-hegseth

[9] CNBC, "Pentagon Threatens Anthropic AI Safeguards Dispute," 2026. https://www.cnbc.com/2026/02/16/pentagon-threatens-anthropic-ai-safeguards-dispute.html

[10] Dario Amodei, "The Adolescence of Technology," 2026. https://www.darioamodei.com/essay/the-adolescence-of-technology

[11] Axios, "Pentagon Threatens to Label Anthropic a Supply Chain Risk," 2026. https://www.axios.com/2026/02/16/anthropic-defense-department-relationship-hegseth

[12] Gizmodo / Inc., "Pentagon Reportedly Hopping Mad at Anthropic" / "Anthropic Blasts Pentagon's Use of Its AI Tool in Venezuela Raid," 2026.

[13] CNN, "US Department of Defense Awards Contracts to Google, Musk's xAI," 2025. https://www.cnn.com/2025/07/15/business/us-department-defense-google-musk-xai

[14] United Nations, "General Assembly Adopts Resolutions of First Committee — Autonomous Weapons," 2025. https://press.un.org/en/2025/ga12736.doc.htm

[15] +972 Magazine, "'Lavender': The AI Machine Directing Israel's Bombing Spree in Gaza," Yuval Abraham, April 2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/

[16] +972 Magazine, "'A Mass Assassination Factory': Inside Israel's Calculated Bombing of Gaza," Yuval Abraham, November 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/

[17] TIME, "Google Workers Revolt Over $1.2 Billion Israel Contract Known as Project Nimbus," 2024. https://time.com/6964364/exclusive-no-tech-for-apartheid-google-workers-protest-project-nimbus-1-2-billion-contract-with-israel/

[18] Washington Post, "Google Drops Pledge Not to Use AI for Weapons or Surveillance," February 2025. https://www.washingtonpost.com/technology/2025/02/04/google-ai-policies-weapons-harm/

keyword
작가의 이전글건설사 직원들이 AI에 특화되어있다