오픈AI와 국방부의 ‘위험한 타협'…앤트로픽의 우려가

by 정중규

OpenAI’s “compromise” with the Pentagon is what Anthropic feared / 3James O'Donnell

오픈AI와 국방부의 ‘위험한 타협’… 앤트로픽의 우려가 현실로


오픈AI는 미 국방부와의 계약으로 군사 AI 시장에 진입했지만, 안전장치를 법 준수에만 의존한다는 점에서 ⁴⁴⁴¾ㅆ 낳고 있다. 앤트로픽이 지켜온 ‘레드라인’이 무너질 수 있다는 우려 속에 AI 기업의 윤리적 책임과 국가 안보의 경계가 다시 시험대에 올랐다.


2026년 3월 3일


오픈AI는 2월 28일(현지시간) 미군이 기밀 환경에서 자사 기술을 사용할 수 있게 하는 계약을 체결했다고 발표했다. 경쟁사인 앤트로픽이 국방부와 AI의 군사적 활용을 놓고 갈등을 빚은 뒤 체결된 이번 계약에 대해 샘 올트먼 오픈AI CEO는 “분명 서둘러 계약을 진행했다”고 인정했다.


오픈AI는 발표문에서 국방부가 자사 기술을 자의적으로 사용하도록 허용하지 않았다는 사실을 강조하는 데 집중했다. 오픈AI는 자율 무기 및 대규모 국내 감시 목적으로 자사 기술의 사용을 막는 조항이 계약에 포함됐다고 설명하는 블로그 게시물을 공개했다. 올트먼 CEO는 앤트로픽이 거부한 조건을 그대로 수용한 것이 아니라고도 강조했다.


표면적으로는 오픈AI가 계약과 도덕적 명분을 모두 얻은 것처럼 보일 수 있다. 그러나 행간과 법률 용어를 자세히 들여다보면 다른 사실이 드러난다. 앤트로픽은 많은 지지를 얻은 도덕적 접근을 택했지만 결국 국방부와의 계약에 실패했다. 반면 오픈AI는 국방부에 더 실용적이고 법적으로 유연한 접근법을 택했다.


이란 공격 과정에서 군이 정치화된 AI 전략을 서둘러 추진하는 가운데 오픈AI가 약속한 안전장치를 실제로 구축할 수 있을지, 아니면 회사가 국방부에 더 강경한 입장을 취하길 원했던 직원들이 이 계약을 충분히 만족스럽게 받아들일지는 아직 불분명하다. 양쪽 입장을 모두 고려하며 대응하기는 쉽지 않을 것이다. (오픈AI는 계약에 대한 추가 정보 요청에 즉각적인 답변을 내놓지 않았다.)


하지만 세부 계약 내용에도 문제가 숨어 있다. 올트먼 CEO는 오픈AI가 앤트로픽은 하지 못했던 계약을 성사시킬 수 있었던 이유가 접근 방식의 차이에 있었다고 주장했다. 그는 “앤트로픽은 계약에 적용 가능한 법률을 근거로 삼기보다 구체적인 금지 조항에 더 집중하는 것처럼 보였지만, 우리는 법률을 근거로 하는 방식이 더 편하다고 느꼈다”고 썼다.


오픈AI는 국방부와 협력하기로 한 이유 중 하나로 정부가 법을 위반하지 않을 것이라는 전제를 꼽았다. 그리고 계약서 일부를 공개하며, 자율 무기와 감시와 관련된 여러 법률 및 정책을 인용했다. 여기에는 국방부의 2023년 자율 무기 지침(사용을 금지하지 않고 설계 및 시험 지침을 제시함)처럼 구체적인 것부터 대량 감시로부터 미국인을 보호하는 근거가 된 수정헌법 제4조처럼 포괄적인 것까지 포함된다.


그러나 정부 조달법을 연구하고 있는 제시카 틸립먼(Jessica Tillipman) 조지 워싱턴대 로스쿨 조교수는 “공개된 이 일부 계약 내용은 오픈AI에 앤트로픽식 독립적 권리, 즉 합법적인 정부 사용을 금지할 수 있는 권한을 부여하지 않고 있다”고 썼다. 이는 국방부가 현재 명시된 법과 정책을 위반하며 오픈AI 기술을 사용할 수 없다는 점을 명시한 것에 불과하다는 뜻이다.


앤트로픽이 국방부와의 갈등 속에서 오픈AI 일부 직원들까지 포함해 많은 지지자를 얻은 이유는, 이러한 규칙이 AI 기반 자율 무기나 대량 감시 시스템의 개발을 막기에 충분하지 않다고 믿기 때문이다. 연방 기관들이 법을 어기지 않을 것이라는 전제는, 미국 국가안보국(NSA)의 전직 정보요원이었던 에드워드 스노든(Edward Snowden)이 2013년 폭로한 미국 정부의 대규모 감청 관행이 내부적으로는 합법으로 간주됐다가 오랜 법적 다툼 끝에 불법 판정을 받은 사례를 기억하는 사람들에게 위안이 되지 않을 것이다. 게다가 현행법 아래 허용된 수많은 감시 수단이 AI로 확대될 수 있다는 우려도 있다. 이런 점에서 보면 우리는 결국 다시 출발점으로 돌아와 국방부가 합법적인 용도라면 어떤 AI든 사용할 수 있도록 허용하게 된 셈이다.


오픈AI는 전날 동사의 국가안보 협력 담당자가 밝혔듯이 “정부가 법을 지키지 않을 것이라고 믿는다면 앤트로픽이 제안한 레드라인(넘지 말아야 할 기준) 역시 지켜질 것이라고 기대하기 어렵다”고 주장할 수 있다. 하지만 그렇다고 해서 그런 기준을 세울 필요가 없다는 뜻은 아니다. 법을 완벽하게 집행하지 못한다고 해서 그런 법이 무의미해지는 것은 아니며, 계약 조항 역시 여전히 기업과 정부의 행동, 감시 체계, 정치적 책임에 큰 영향을 미친다(앤트로픽은 미국인에 대한 대규모 감시나 자율 살상 무기 개발에 자사 모델이 활용될 수 없다는 ‘레드라인’을 유지해 왔다).


오픈AI는 두 번째 방어선도 마련했다는 입장이다. 회사는 AI 모델을 통제하는 안전 규칙을 유지하며 군에 안전 통제가 제거된 AI 버전을 제공하지 않을 것이라고 강조했다. 올트먼 CEO 대신 X 관련 발언을 맡은 오픈AI 직원 보아즈 바락(Boaz Barak)은 “우리는 ‘대량 감시 금지’와 ‘인간 개입 없는 무기 시스템 조종 금지’라는 레드라인을 모델 행동에 직접 내장할 수 있다”고 썼다.


그러나 오픈AI는 군용 안전 규칙이 일반 사용자 규칙과 어떻게 다른지 구체적으로 밝히지 않았다. 규칙의 시행 역시 완벽할 수 없다. 특히 오픈AI가 이러한 보호 장치를 기밀 환경에서 처음 도입하고 단 6개월 만에 완료해야 하는 상황에서는 더욱 그렇다.


이 모든 것 아래에는 또 다른 의문이 도사리고 있다. 그것은 합법적이지만 도덕적으로 용납할 수 없다고 판단되는 것들을 금지하는 게 기술 기업의 몫이어야 하는가 여부다. 정부는 분명 앤트로픽이 이러한 역할을 자처하는 태도를 용납할 수 없다고 봤다. 미국이 2월 28일 저녁 테헤란 공습을 시작하기 8시간 전, 피트 헤그세스(Pete Hegseth) 국방장관은 X에 강경한 발언을 게시했다. 그는 “앤트로픽은 오만과 배신의 교과서적인 사례를 보여줬다”고 썼다. 이는 앤트로픽이 자사 모델 ‘클로드’가 자율 무기나 대규모 국내 감시에 사용되는 것을 막으려 했던 데 대해 도널드 트럼프 대통령이 앤트로픽과의 협력을 중단하라고 지시한 결정과도 맥이 닿는다. 이어 헤그세스 장관은 “국방부는 모든 합법적인 목적을 위해 앤트로픽의 모델에 전면적이고 제한 없는 접근권을 가져야 한다”고 주장했다.


하지만 계약서 전문을 공개해 더 많은 내용을 밝히지 않는 한, 오픈AI가 이념적 줄타기를 하고 있다는 인상을 지우기 어렵다. 스스로 옳다고 믿는 일을 관철할 수 있는 영향력을 갖고 있다고 하면서도 국방부의 기술 활용을 통제하는 핵심 안전장치는 결국 ‘법을 따르는 것’뿐이라고 말하고 있기 때문이다.


여기서 주목할 점은 세 가지다. 첫째, 이러한 입장이 오픈AI의 핵심 직원들에게 충분히 설득력 있을지 여부다. AI 기업들이 인재 확보에 막대한 비용을 쏟아붓는 상황에서 일부 오픈AI 직원들은 올트먼 CEO의 정당화 논리를 용서할 수 없는 타협으로 볼 수 있다.


둘째, 헤그세스 장관이 앤트로픽에 큰 타격을 주겠다고 약속했다는 점이다. 그는 단순히 정부와의 계약을 취소하는 것을 훨씬 넘어 앤트로픽을 공급망 위험으로 분류하고 “미군과 거래하는 계약업체, 공급업체, 파트너사는 앤트로픽과 어떠한 상업적 활동도 수행할 수 없다”고 발표했다. 이런 치명적 조치가 과연 합법적인지를 둘러싼 논쟁이 벌어지기 시작한 가운데 앤트로픽은 위협이 실행될 경우 소송을 제기하겠다고 밝혔다. 오픈AI 역시 이 조치에 반대 입장을 표명했다.


마지막으로, 국방부는 베네수엘라 작전을 포함한 기밀 작전에서 유일하게 활용 중인 AI 모델 ‘클로드’를 교체하면서 동시에 이란에 대한 공세를 강화할 수 있을지도 문제다. 헤그세스 장관은 군에 6개월의 이행 기간을 부여했으며, 이 기간 동안 오픈AI 모델과 일론 머스크의 xAI 모델을 단계적으로 도입할 예정이다.


그러나 금지령이 내려진 지 몇 시간 만에 이뤄진 이란 공격에 클로드가 사용된 것으로 알려지면서 단계적 폐기가 결코 쉽지 않을 것임을 시사한다. 앤트로픽과 국방부의 수개월간 이어진 갈등이 끝난다고 해도(필자는 그렇지 않다고 보지만) 현재 국방부의 AI 가속화 계획은 기업들에게 한때 그어두었던 ‘레드라인’을 포기하도록 압박할 것이다. 그리고 중동 지역의 새로운 긴장이 그 주요 시험장이 되고 있다.


MIT 테크놀로지 리뷰

MIT Technology Review Korea