최근 인공지능 기업 Anthropic과 미국 국방부의 갈등이 보도되었습니다. 꽤 흥미로운 사건입니다.
Anthropic은 생성형 인공지능 모델 Claude를 서비스하는 회사입니다. 이 회사는 미국 국방부에 Claude를 제공해 왔습니다. 그런데 최근 두 가지 조건을 제시했습니다. 이 조건이 받아들여지지 않으면 더 이상 Claude를 제공하지 않겠다는 것입니다.
Anthropic이 내세운 레드라인은 두 가지입니다.
첫째, 미국 국내 사찰에 인공지능을 사용하지 말 것.
둘째, 완전 자율형 살상무기에 인공지능을 사용하지 말 것.
Anthropic은 이런 입장의 근거로 인공지능의 불완전성을 이야기합니다. 많은 사람들은 인공지능을 거의 만능에 가까운 기술로 생각합니다. 하지만 실제로 기술을 개발하는 연구자들의 시각은 조금 다릅니다. 인공지능은 여전히 허점이 많고 예측하기 어려운 시스템입니다. 이런 기술에게 사람의 생명과 직결되는 결정을 맡기는 것은 위험하다는 것입니다. 결국 중요한 의사결정에는 사람이 반드시 개입해야 한다는 주장입니다.
사실 Anthropic은 이미 지난해부터 미국 국방부와 협력하고 있었습니다. 미국 국방부는 2025년 7월 14일 Anthropic을 비롯해 Google, OpenAI, xAI 등 여러 인공지능 기업과 각각 최대 2억 달러 규모의 계약을 체결했습니다. 국가안보와 군사 작전에 활용할 이른바 ‘frontier AI capabilities’를 개발하고 시험하기 위한 계약이었습니다.
그런데 계약이 체결된 지 거의 1년이 되어가는 시점에서 Anthropic이 갑자기 문제를 제기했습니다. 왜 지금일까요. 그리고 같은 계약에 참여한 다른 기업들은 왜 조용할까요.
명확하게 확인된 사실은 없지만, 최근 발생한 미국과 이란 사이의 군사 충돌이 하나의 계기가 되었을 것이라는 추정도 있습니다. 미국의 공격 과정에서 인공지능이 단순한 정보 분석을 넘어 공격 대상 선정이나 작전에까지 관여했을 가능성이 제기되고 있기 때문입니다.
최근 이란에서는 초등학교에 미사일이 명중해 180여 명의 학생이 사망하는 참사가 발생했습니다. 이 사건의 정확한 경위는 아직 명확하지 않습니다. 하지만 일부에서는 공격 과정에 인공지능이 일정 부분 관여했을 가능성을 이야기하기도 합니다. 사실 여부와 별개로, 이런 의심이 제기된다는 사실 자체가 지금의 시대를 보여주는 장면일지도 모릅니다.
Anthropic이 강하게 문제를 제기하는 이유는 이 회사의 설립 배경과도 관련이 있습니다. Anthropic의 창립자들은 원래 OpenAI의 핵심 개발자들이었습니다. 이들은 인공지능이 매우 빠르게 강력해지고 있는데도 안전성에 대한 논의가 충분하지 않다고 우려했습니다. 결국 OpenAI를 떠나 Anthropic을 설립했고, ‘안전한 인공지능 개발’을 핵심 가치로 내세웠습니다.
그런 철학을 가진 회사에서 만든 인공지능이 전쟁에서 자율 살상 무기로 사용될 수 있다는 점은 그들에게 쉽게 받아들이기 어려운 일이었을 것입니다.
현재 Anthropic과 미국 국방부는 강하게 맞서고 있습니다. 최근 미국 국방부는 Anthropic을 “미국 국가안보 공급망 위험 기업”으로 지정했습니다. 이 조치는 미군과 국방부 계약에서 Anthropic 기술 사용을 금지하고, 방산 계약업체들도 Claude 사용을 중단하도록 요구하는 내용을 담고 있습니다. 더 나아가 연방기관에서도 Anthropic 사용 중단 가능성이 거론되고 있습니다.
이는 기업 입장에서 상당히 큰 압박입니다. 공공 시장은 민간 시장 못지않게 중요한 영역이기 때문입니다. 그럼에도 불구하고 Anthropic이 공개적으로 문제를 제기하고 있다는 점은 인상적입니다.
인공지능은 이제 더 이상 검색이나 번역을 돕는 편리한 도구에 머물지 않습니다. 사람의 생사를 좌우할 수도 있는 군사 기술이 되었습니다.
이런 기술을 기업이 어디까지 통제할 수 있을까요.
그리고 국가는 어디까지 사용할 수 있을까요.
Anthropic과 미국 국방부의 갈등은 그 질문이 더 이상 이론적인 논쟁이 아니라 현실의 문제로 등장했음을 보여주는 장면일지도 모릅니다.
그리고 이런 갈등은 앞으로 더 많아질 가능성이 큽니다. 인공지능이 사회와 국가 시스템 속으로 깊숙이 들어갈수록 우리는 기술의 가능성뿐 아니라 그것을 어디까지 사용해야 하는지에 대해서도 계속 판단을 요구받게 될 것입니다.
어쩌면 인공지능 시대에 가장 어려운 문제는 기술 그 자체가 아니라, 그 기술을 어디까지 사용할 것인가를 결정해야 하는 인간의 판단일지도 모릅니다.