AI, 정치의 한복판에 서다

미국 국방부와 앤트로픽의 갈등

by 성대리

지난주, AI 업계에서 전례 없는 일이 벌어졌습니다. 미 국방부가 미국 AI 기업에 "공급망 리스크"라는 딱지를 붙인 겁니다. 그것도 중국이나 러시아 기업이 아니라, 바로 Anthropic에.


이 사태를 이해하려면 세 주체의 관계를 먼저 알아야 합니다. 국방부는 AI를 군사 작전에 활용하고 싶습니다. Anthropic(Claude를 만든 회사)은 "감시와 자율 무기에는 쓸 수 없다"는 원칙을 내걸었습니다. 그리고 OpenAI(ChatGPT를 만든 회사)는 그 사이에서 국방부와 계약을 체결했습니다. 같은 날, 같은 기술을 두고, 한 회사는 쫓겨나고 다른 회사는 손을 잡은 겁니다. The Verge는 이 상황을 "AI가 문화 전쟁의 일부가 됐다"고 표현했는데, 과장이 아닌 것 같습니다.




한 문구가 모든 걸 갈랐다

Anthropic과 국방부의 협상은 거의 마무리 단계까지 갔습니다. Anthropic CEO Dario Amodei에 따르면, 펜타곤은 Anthropic이 제시한 조건 대부분에 동의했습니다. 하지만 마지막에 딱 하나가 걸렸습니다.

"대량 수집 데이터의 분석(analysis of bulk acquired data)"이라는 문구를 삭제해 달라는 것이었습니다.


Anthropic이 처음부터 내건 레드라인은 두 가지였습니다. 국내 대량 감시(domestic mass surveillance)와 자율 무기(autonomous weapons)에 AI를 쓰지 않겠다는 원칙. Amodei는 펜타곤이 요구한 삭제가 "우리가 가장 우려하던 시나리오와 정확히 일치했다"고 썼습니다. 대량으로 수집한 통신 데이터를 AI로 분석하는 것, AI가 사실상 감시 도구가 되는 상황 말입니다.


자율 무기에 대해서도 입장 차이가 컸습니다. 펜타곤은 "법적으로 인간이 개입하게 되어 있다"고 반박했지만, Amodei는 이것이 바이든 행정부 시절 추가된 국방부 내부 정책일 뿐이라고 지적했습니다. 국방장관 Pete Hegseth가 언제든 바꿀 수 있는, 법적 구속력 없는 약속이라는 겁니다. 결국 협상은 결렬됐습니다.




국방부는 왜 이렇게까지 강경했나

협상이 깨진 뒤 국방부의 반응은 예상을 넘어섰습니다.

트럼프 대통령은 Truth Social에서 Anthropic을 미국 정부의 "기피 대상(persona non grata)"이라고 선언했고, Hegseth 장관은 공급망 리스크 지정을 추진하겠다고 밝혔습니다.

3월 5일, 국방부는 실제로 Anthropic을 공급망 리스크로 공식 지정했습니다.


미국 기업이 이 딱지를 받은 것은 역사상 처음입니다.

원래 이 조치는 화웨이 같은 외국 적성국 기업에 대해서만 사용되던 것이었습니다.


국방부 관계자의 발언이 강경함의 이유를 드러냅니다. "궁극적으로 이것은 우리 전투원들이 싸움에서 이기기 위한 최고의 도구를 갖는 것에 관한 문제"라며, "기밀 환경에서 Claude가 Dario의 의제를 몰래 수행하지 않는다고 믿을 수 없다"고까지 말했습니다. 계약 조건의 문제를 넘어, 기업과 정부 사이의 신뢰 자체가 깨진 셈입니다.


공식 지정 전부터 파장은 현실이 되고 있었습니다. CNBC에 따르면 다수의 방산 업체가 직원들에게 Claude 사용 중단을 지시했고, 방산 투자 전문 J2 Ventures의 Alexander Hartstrick은 포트폴리오 기업 10곳이 이미 Claude를 다른 모델로 교체하는 절차에 들어갔다고 밝혔습니다. 국방부와 거래하는 기업 입장에서, "공급망 리스크" 딱지가 붙은 기술을 계속 쓸 수 있을 리 없습니다.


같은 날, OpenAI는 손을 잡았다

Anthropic이 쫓겨난 바로 그 금요일 밤, OpenAI는 국방부와의 계약 체결을 발표했습니다. 타이밍이 노골적이었습니다. 업계 안팎에서 "기회주의적"이라는 비판이 쏟아졌고, Sam Altman 본인도 이후 직원 전체 회의에서 "서둘러 발표한 건 실수였다, 기회주의적이고 업계와 동떨어져 보이게 만들었다"고 인정했습니다.


OpenAI의 계약에도 안전장치가 포함되어 있다고 했지만, 실효성에 대한 의문은 남았습니다. Amodei는 이 안전장치가 "20%는 실질적이고 80%는 안전 극장(safety theater)"이라고 평가했습니다. 모델이 특정 요청을 거부하도록 설정하는 수준에 그치며, 군사 맥락에서 자율 무기나 감시를 실제로 막기에는 부족하다는 논리였습니다. 인간의 개입 여부나 감시 데이터의 출처 같은 맥락은 모델 자체가 판단할 수 없기 때문입니다.




Amodei의 메모, 그리고 폭발

OpenAI 계약 발표와 거의 동시에, Amodei는 직원들에게 1,600단어 분량의 내부 메모를 보냈습니다. 이 메모는 곧 The Information을 통해 유출됐고, 실리콘밸리 전체를 뒤흔들었습니다.


메모의 핵심은 세 가지였습니다. 첫째, OpenAI의 안전장치는 허울뿐이라는 것. 둘째, Sam Altman이 공개적으로는 Anthropic을 지지하는 척하면서 뒤에서는 입지를 깎아내리고 있다는 것. 셋째, 국방부가 Anthropic을 싫어하는 진짜 이유는 계약 조건이 아니라 정치라는 것이었습니다.


Amodei가 나열한 "정치적 이유"는 이렇습니다. 트럼프에게 기부하지 않았다. 독재자식 찬사를 보내지 않았다. AI 규제를 지지했다. 일자리 대체 같은 불편한 진실을 말했다. 안전 원칙을 타협하기를 거부했다. 이것은 OpenAI와의 직접적인 대비이기도 했습니다. Altman과 공동 창업자 Greg Brockman은 트럼프에게 상당한 금액을 기부한 것으로 알려져 있습니다.


Altman에 대해서는 더 직접적이었습니다. "공개적으로 우리를 지지하는 척하면서, 실제로는 행정부가 우리를 벌주기 쉽게 만들고 있다"며, "이것이 가스라이팅임을 인식해 달라"고 직원들에게 호소했습니다. OpenAI 직원들을 "좀 잘 속는 편(gullible bunch)"이라 했고, 반대편을 "트위터 바보들(Twitter morons)"이라 부른 표현도 이후 크게 논란이 됐습니다. Amodei는 나중에 이 표현들에 대해 공개 사과했습니다.


업계 반응, 그리고 균열

메모에 대한 해석은 두 갈래로 나뉘었습니다. 하나는 전략적 행동이라는 시각입니다. 불만을 품은 OpenAI 직원을 영입하려는 채용 전략이거나, 반(反)행정부 정서에 편승해 소비자 지지를 끌어올리려는 의도라는 분석이었습니다. 실제로 Anthropic의 앱은 당시 앱스토어 차트 2위까지 치솟았습니다. 다른 하나는 단순한 감정 폭발이라는 해석입니다. AI 안전 진영에 우호적인 논객조차 "Dario는 금요일에 극도로 흥분한 상태였고, 백악관에 대한 발언은 정말 어리석었다"고 평했습니다.


업계 연대에 대한 우려의 목소리도 컸습니다. AI 정책 전문가 Dean Ball은 "이번이 국가가 AI에 간섭하는 마지막 사례가 아닐 것이고, 업계가 함께 버티는 것이 중요한데, 메모가 그것을 더 어렵게 만들었다"고 썼습니다. 흥미롭게도 OpenAI 이사인 전 NSA 국장 Paul Nakasone도 같은 맥락에서 공급망 리스크 지정에 반대했습니다. "우리에게는 Anthropic이 필요하고, OpenAI가 필요하다. 모든 AI 기업이 정부와 협력해야 한다." 경쟁사 이사회에 있는 사람이 이런 말을 할 정도면, 이 사태가 업계 전체에 얼마나 큰 충격인지 짐작할 수 있습니다.


OpenAI 내부에서도 조용하지 않았습니다. Altman은 전체 회의에서 "옳은 일을 하려고 노력했는데 이렇게 무너지는 경험은 정말 괴롭다"고 말했다고 합니다. 상징적인 이탈도 발생했습니다. 강화학습 리드 Max Schwarzer가 OpenAI를 떠나 Anthropic 합류를 발표한 것입니다. 본인은 "개인 연구자로 돌아가고 싶다"고 설명했지만, 타이밍상 그 말을 곧이곧대로 받아들인 사람은 거의 없었습니다.




기술이 정치가 된 순간

정리하면 이런 그림입니다.


Anthropic은 안전 원칙을 지키려다 미국 정부의 공급망 리스크 지정이라는 전례 없는 타격을 입었습니다. OpenAI는 국방부와 손을 잡았지만 "안전을 팔았다"는 비판에 직면했습니다. 그리고 국방부는 AI 기업을 상대로, 외국 적성국에나 쓰던 무기를 꺼내 들었습니다. 세 주체 모두 자신이 옳다고 믿고 있고, 그래서 타협점을 찾기가 더 어렵습니다.


이 사태의 본질은 단순한 계약 분쟁이 아닙니다. AI 기업이 정부와 어떤 관계를 맺어야 하는지, 안전 원칙은 어디까지 타협할 수 있는지, 그리고 기술 기업의 정치적 중립이란 게 과연 가능한지를 동시에 묻고 있습니다. 기술 논의였던 AI가 이제 본격적으로 정치의 한복판에 들어섰습니다. 그리고 이 흐름은 되돌리기 어려워 보입니다.



출처

The Information - Read Anthropic CEO's Memo Attacking OpenAI's 'Mendacious' Pentagon Announcement (링크)

CNBC - Anthropic officially told by DOD that it's a supply chain risk (링크)

TechCrunch - The Pentagon has labeled Anthropic a supply-chain risk (링크)

Fortune - Anthropic CEO apologizes for leaked memo (링크)

CNBC - OpenAI's Altman admits defense deal 'looked opportunistic and sloppy' (링크)

BBC - OpenAI changes deal with US military after backlash (링크)

Reuters - Big tech group supports Anthropic in Pentagon fight (링크)

The Guardian - US tech firms pledge at White House to bear costs of energy (링크)

White House - Ratepayer Protection Pledge (링크)

원본 영상 - AI Daily Brief (링크)

작가의 이전글GPT-5.4, OpenAI가 꺼낸 승부수