AI 무기는 인류의 전쟁 규범을 공격한다.

베네수엘라 공습에서 발견한 테크 엘리트의 전쟁에 대한 도덕 의식

by Wade Paak

서론: 베네수엘라 작전이 던지는 질문

2026년 1월 3일, 미국 특수부대는 베네수엘라 수도 카라카스를 기습하여 니콜라스 마두로 대통령과 그의 부인을 체포했다. “Operation Absolute Resolve”로 명명된 이 작전은 델타포스 특수부대, 사이버전, 정밀 공중 타격이 정교하게 결합된 모습이었다. 형식적으로만 본다면, 이것은 우리가 익히 보아온 고도화된 현대전의 연장선에 있는 전통적 군사 행동처럼 보인다.

그럼에도 나는 이 뉴스를 보면서, 최근 AI 발전과 군사 안보 분야의 변화 흐름들이 미묘하게 겹쳐보였다. 특히 미 국방부가 추진해 온 공격적인 AI 전환(혹은 AI 무기화), 그리고 최근 가자 지구에서 이스라엘이 보여준 AI 표적 시스템의 실전 투입 뉴스들이 바로 그것이다. 시대는 분명 전쟁의 자동화와 효율화를 향해 달려가고 있었고, 나는 자연스럽게 한 가지 의문을 갖게 되었다. “과연 이러한 거대한 기술적·시대적 흐름이 이번 작전의 기획과 결심에 아무런 영향을 미치지 않았을까?”

물론 이번 작전에 자율 살상 무기가 직접 투입된 것은 아니다. 그러나 최근 급격히 확대된 실리콘밸리 기술 엘리트들의 정치적 영향력과 그들이 설파해 온 ‘기술 효율성’의 철학은 이미 펜타곤의 공기를 바꾸어 놓았다. 나는 하드웨어로서의 AI가 부재했더라도, ‘비용 없는 전쟁’, ‘오류 없는 타격’을 약속하는 AI 시대의 담론이 이미 전쟁을 결정하는 정치적 규범(Norms)에 깊숙이 개입하고 있다고 확신한다.

이번 베네수엘라 작전은 이 가설을 직접 검증할 수는 없지만 그 흔적을 발견할 적실한 사례로 보인다. 작전 직후 쏟아진 “역대 가장 정교하고 효율적인 작전”이라는 찬사는, 전쟁의 정당성(Legitimacy)을 따지는 전통적 윤리가 효율성(Efficiency)이라는 기술적 언어에 의해 어떻게 대체되고 있는지를 보여준다. 이 글은 바로 그 지점—AI 무기가 쏘아 올리기 전, AI의 논리가 먼저 쏘아 올린 전쟁의 새로운 규범—에 대한 분석이다.


전쟁의 전통적 규범: 왜 전쟁은 정치적 부담이었는가

근대 이후 전쟁은 단순한 군사 수단이 아니었다. 그것은 언제나 정치적 부담의 집합체였다. 대규모 병력 동원, 자국 군인의 희생, 무고한 민간인의 광범한 피해들은 전쟁을 정치 지도자에게 가장 위험한 선택지로 만들었다.

정의전쟁론(Just War Theory)은 이러한 부담을 윤리적 원칙으로 체계화했다. jus ad bellum(전쟁 개시의 정당성)의 원칙들—정당한 원인(just cause), 최후의 수단(last resort), 비례성(proportionality), 적법한 권위(legitimate authority)—은 전쟁을 시작하는 결정에 높은 도덕적 문턱을 설정했다. 스탠퍼드 철학백과사전이 정리하듯, 이 원칙들은 “필요성과 비례성이 충족되지 않으면, 다른 조건들이 아무리 만족되더라도 전쟁은 허용되지 않는다”는 제약을 부과한다.

이 구조 속에서 전쟁은 기술적 문제가 아니라 정치적·도덕적 결단이었다. 전쟁을 시작하는 순간, 지도자는 단순한 전략가가 아니라 희생에 대한 책임을 떠안는 정치 행위자가 된다. 이 점이 전통적 전쟁 결정의 문턱을 높여왔다.

그렇다면 AI 시대의 기술 발전은 이 구조에 어떤 변화를 가져오는가?


AI 시대 전쟁의 기술적 전제: 무엇이 달라지고 있는가

미국 국방부의 AI 전환은 추상적 미래가 아니라 현재 진행형이다.

<미국 국방부 펜타곤>


Replicator 이니셔티브: 대량 자율무기 배치

2023년 8월, 당시 국방부 부장관 캐슬린 힉스는 “Replicator” 이니셔티브를 발표했다. 목표는 18~24개월 내에 수천 개의 자율무기 시스템을 전 영역(공중, 해상, 지상)에 배치하는 것이었다. 힉스는 이를 “중국의 최대 강점인 물량에 우리의 물량으로 대응”하기 위한 전략이라고 설명했다.

Replicator는 전통적인 대형 무기체계—“크고, 정교하고, 비싸고, 소수인” 플랫폼—에서 “작고, 똑똑하고, 저렴하고, 다수인” 시스템으로의 전환을 상징한다. 2024년 회계연도에 5억 달러가 배정되었고, 2025년에도 동일한 규모가 요청되었다. AeroVironment의 Switchblade-600 자폭 드론, Anduril의 Altius-600과 Ghost-X 무인기 등이 1차 선정되었다.

2024년 9월, 로이드 오스틴 국방장관은 “Replicator 2.0”을 발표하여 대드론 기술에 초점을 맞추었다. 의회조사국(CRS) 보고서에 따르면, 2025년 8월 목표 시점까지 “수천 대”가 아닌 “수백 대” 수준이 배치되었지만, 수천 대가 추가 계약 중이다.


Project Maven과 AI 표적 선정

AI의 군사적 적용에서 더 주목할 것은 표적 선정 시스템이다. 2017년 시작된 Project Maven은 드론 영상을 AI로 분석하여 표적을 식별하는 프로젝트였다. 현재는 국가지리정보국(NGA)이 관리하며, 다양한 센서 데이터를 통합 분석한다.

Bloomberg의 2024년 보도에 따르면, Maven은 18공수군단의 실전 테스트베드로 운용되고 있다. AI가 위성 이미지에서 표적을 식별하고, 인간 감독관이 확인한 후, 시스템이 HIMARS 발사대에 사격 명령을 전송하는 과정이 이미 훈련에서 구현되었다.


이스라엘의 Lavender와 Gospel: 실전 적용의 선례

AI 기반 표적 선정이 실전에서 어떻게 작동하는지는 이스라엘 사례가 보여준다. +972 MagazineThe Guardian의 조사 보도에 따르면, 이스라엘군은 가자 작전에서 “Lavender”와 “Gospel”이라는 AI 시스템을 사용했다. Gospel은 건물과 구조물을, Lavender는 개인을 표적으로 추천하는 시스템이다.

전 이스라엘군 참모총장 아비브 코하비에 따르면, Gospel은 하루 100개의 폭격 표적을 생성할 수 있었다—인간 분석관이 연간 50개를 처리하던 것과 비교된다. 정보장교들은 각 표적에 “20초”를 투자했고, 자신의 역할이 “승인 도장 외에는 부가가치가 없었다”고 증언했다. UN 사무총장은 이러한 AI 사용이 “민간인을 위험에 빠뜨리고 책임 소재를 흐린다”고 우려를 표명했다. 핵심은 윤리적 판단이 아니라, AI가 표적 선정의 속도와 규모를 근본적으로 변화시켰다는 사실이다.

이러한 흐름은 무엇을 의미하는가? 속도, 규모, 거리의 기술적 진보가 가리키는 방향은 명확하다. 결국 이 모든 기술은 전쟁 수행 과정에서 인간의 ‘느린 숙고(deliberation)’를 제거하는 것을 목표로 한다.


<출처: EVN Report>


‘기술 공화국’: 기술 엘리트의 전쟁 담론

2025년 2월, Palantir CEO 알렉산더 카프는 The Technological Republic을 출간했다. 뉴욕타임스 베스트셀러 1위에 오른 이 책은 실리콘밸리 방산 기업의 핵심 인물이 직접 주창하는 정치적 비전을 담고 있다.

카프의 논지는 첫 문장에서 선명하다: “실리콘밸리는 길을 잃었다.” 20세기 중반, 미국 기술 산업의 부상은 정부와의 긴밀한 협력으로 가능했다. 초기 실리콘밸리의 혁신은 “국가적 중요성의 도전에 기술을 적용하고자 했던 과학자와 엔지니어들”에 의해 추동되었다. 그러나 오늘날 엔지니어들은 “사진 공유 앱과 마케팅 알고리즘”을 만들며, 국가 안보라는 본래의 사명을 저버렸다.

카프의 처방은 명확하다: 소프트웨어 산업은 “AI라는 새로운 군비 경쟁”에 다시 헌신해야 하고, 지도자들은 “지적 취약성(intellectual fragility)을 거부”해야 한다.

이 담론에서 가장 주목할 부분은 “서방(the West)“의 정의다. Independent Institute의 서평이 지적하듯, 카프는 서방을 지리적·제도적·문화적 개념으로 규정하지 않는다. 대신 그가 제시하는 것은 이것이다: 서방의 핵심 특징은 폭력을 가하는 데 있어서의 비교우위(comparative advantage in inflicting violence)다. 기술 우위는 곧 폭력 수행 능력의 우위이며, 이것이 서방 문명의 존속 조건이다.

이 담론이 전쟁 규범에 미치는 영향은 세 가지다. 첫째, 기술 기업과 국가 안보의 결합을 도덕적 의무로 격상시킨다. 즉, 국방 계약을 기피하는 것은 “국가적 의무의 배신”이다. 둘째, 효율성과 기술적 탁월성이 정당성의 언어를 대체한다. 즉, 군사 행동의 성공은 jus ad bellum이 아니라 정밀함과 신속함으로 측정된다. 셋째, 민주적 숙의를 “지적 취약성”으로 프레이밍한다. 즉, 의회의 견제, 여론의 반대, 국제법의 제약은 잠재적으로 “취약성”의 표현이 된다.

<알렉산더 카프>


AI 시대의 위험한 상상력: 비용 구조의 혁명

AI와 정밀 군사 기술의 발전은 전쟁을 둘러싼 ‘비용 계산’을 근본적으로 변화시킨다. 무인화, 자동화, 초정밀 타격 기술은 아군의 희생을 극소화하고, 특정 목표만 제거할 수 있다는 가능성을 제시한다.

이 가능성은 아직 완전히 실현되지 않았다. 그러나 정치적 상상력은 이미 그 가능성을 전제로 움직이기 시작했다.

전쟁이 더 이상 대규모 희생을 전제하지 않을 수 있다는 인식은, 전쟁을 ‘비극적 결단’이 아니라 ‘관리 가능한 옵션’으로 전환시킨다.

AI & Society 저널에 발표된 논문 “Autonomous weapon systems and jus ad bellum”은 이 문제를 직접 다룬다: “AWS에 대한 반대론 중 일부는 이 무기들이 전쟁 개시의 비용을 낮춤으로써(비례성) 또는 선전적 가치를 제공함으로써(최후의 수단) 전쟁의 빈도를 증가시킬 수 있다는 아이디어에 기반한다.”

논문의 저자들은 이러한 반대론이 개념적 한계를 갖는다고 주장하지만, 동시에 이 반대론이 “기술 혁신과 정밀 폭력에 대한 신화가 전쟁의 확산과 확대에 기여하는 방식을 지적한다는 점에서 직관적 타당성(intuitive plausibility)“을 갖는다고 인정한다.

핵심은 전쟁의 본질이 바뀐 것이 아니라, 전쟁을 결정하는 심리적·정치적 문턱(Threshold)이 낮아지고 있다는 사실이다.


베네수엘라 작전: 담론의 작동 방식

2026년 1월의 베네수엘라 작전은 이러한 변화된 인식이 현실에서 어떤 언어로 표현되는지를 보여준다.

<출처: NPR>


효율성의 언어

작전 직후 담론의 중심은 “어떻게(how)“였지 “왜(why)“가 아니었다. 트럼프 대통령은 작전을 “마치 TV 쇼를 보듯” 실시간으로 시청했다고 말했다. Hegseth 국방장관은 이를 “역대 가장 정교하고, 가장 복잡하고, 가장 성공적인 합동 특수작전”이라 칭했다. Foreign Policy는 이 작전이 “트럼프의 빠르고 TV용으로 제작된 타격에 대한 집착을 충족시킨다”고 분석했다.

여기서 작동하는 것이 바로 정당성(legitimacy)의 질문이 효율성(efficiency)의 찬사로 대체되는 양상이다. 미국 사상자가 없었다는 점, 작전이 신속하게 완료되었다는 점, 목표물이 정확히 포획되었다는 점—이 모든 것이 작전의 “성공”을 증명하는 지표로 제시된다.


부재하는 질문들

주목할 것은 공론장에서 제기되지 않은 질문들이다. 정의전쟁론의 기준으로 보면, 이 작전은 여러 질문을 제기한다: 베네수엘라가 미국에 대한 임박한 위협이었는가(정당한 원인)? 외교적 대안은 충분히 소진되었는가(최후의 수단)? 주권국가 지도자의 무력 체포가 초래할 지역적 불안정은 예상 이익을 초과하지 않는가(비례성)?

그러나 이러한 질문들은 주변부에 머물렀다. 민주당 의원들은 의회 승인 없는 군사 행동의 절차적 문제를 지적했지만, 이는 작전의 근본적 정당성이 아니라 권한 배분의 문제였다. Brookings Institution의 분석가조차 “마두로 대통령은 보호받을 자격이 없었다”고 전제한 후 논의를 시작했다.


“외과적 타격”의 수사학

“외과적 타격(surgical strike)“이라는 은유는 이 담론 구조를 압축적으로 보여준다. 전쟁을 의료 행위에 비유함으로써, 폭력은 “치료”가 되고 표적은 “제거해야 할 병변”이 된다. 이 프레이밍에서 정치적 판단은 기술적 평가로 환원된다: 수술이 성공했는가? 부작용은 최소화되었는가? 환자(= 지역 질서)는 회복 중인가?

문제는 전쟁이 수술이 아니라는 점이다. 수술은 환자의 동의를 전제하고, 의사는 히포크라테스 선서에 구속된다. 전쟁은 주권의 침해이고, 그 정당성은 jus ad bellum의 원칙들로 판단되어야 한다. 그러나 효율성의 언어는 이 구분을 흐린다.


인식의 지배: 성공이 질문을 삭제하다

이 사례는 담론이 어떻게 작동하는지를 보여준다: 담론은 전쟁을 명령하지 않지만, 전쟁을 생각하는 방식, 전쟁을 정당화하는 언어, 전쟁의 정치적 비용을 계산하는 프레임을 형성한다. “가장 성공적인 특수작전”이라는 평가가 자연스럽게 수용되는 순간, 정당성의 질문은 이미 효율성의 질문에 의해 삭제된 것이다.


“왜”의 질문이 사라질 때: 전략적 공백

효율성의 언어가 지배할 때, 우리는 무엇을 잃게 되는가?

정의전쟁론은 두 가지 질문을 구별한다. jus ad bellum은 “왜 이 전쟁을 시작하는가”를 묻고, jus in bello는 “어떻게 이 전쟁을 수행하는가”를 묻는다. 효율성, 정밀성, 최소 피해, 베네수엘라 작전을 칭찬하는 데 사용된 모든 지표는 후자의 영역에 속한다.

문제는 “어떻게”의 우수성이 “왜”의 질문을 대체할 때 발생한다. 작전이 정밀했다는 사실은 작전이 정당했는지를 말해주지 않는다. 미국 사상자가 없었다는 사실은 주권국가에 대한 무력 침공이 정당화되는지를 말해주지 않는다.

이것은 단순히 베네수엘라 작전만의 문제가 아니다. Foreign Policy는 더 넓은 패턴을 지적한다: “미군의 정밀 타격 체제의 완성은 신속한 전술적 해결책을 선호하고 장기적 계획을 경시하는 전략 문화를 만들어낸다.” 미국은 빈 라덴을 사살했지만 아프가니스탄에서 패배했다. 전술적 탁월함이 전략적 지혜를 대체할 수 없듯이, 수행의 정밀함이 개시의 정당함을 대체할 수 없다.

CSIS는 베네수엘라 작전에 대해 경고한다: “이것은 끝의 시작이 아니라, 시작의 끝이다.” 마두로를 체포하는 것은 작전의 성공이다. 그러나 베네수엘라의 안정, 지역 질서의 재편, 미국의 장기적 이익—이 모든 것은 여전히 “왜”의 질문에 달려 있다. 그 질문이 제기되지 않은 채 작전이 “성공”으로 선언될 때, 우리는 전략적 목표를 상실한다.


전쟁이 효율적일수록, 전쟁은 더 쉽게 선택된다.


이것이 AI 시대에 가속화되는 정치적 역설이다. 기술은 “어떻게”의 질문에 점점 더 좋은 답을 제공하지만, 바로 그 때문에 “왜”의 질문은 점점 더 묻기 어려워진다. 이것이 우리가 직면한 진짜 위험이다.


결론: 무엇을 질문해야 하는가

AI가 전쟁을 더 인간적으로 만들 것이라는 기대는, 동시에 전쟁을 더 쉽게 만드는 위험을 내포한다. 정치적 책임은 여전히 인간에게 있다. 그러나 그 책임을 자각하게 만드는 규범적 장치들—의회의 전쟁선포권, 국제법의 제약, 정의전쟁론의 윤리적 기준—은 기술의 언어 앞에서 점점 약해지고 있다.

그렇다면 우리는 무엇을 해야 하는가?

첫째, jus ad bellum의 복원. 전쟁 개시의 정당성에 대한 질문은 효율성의 질문으로 대체될 수 없다. 아무리 정밀한 작전이라도, “왜 이 전쟁을 시작했는가?“라는 질문은 독립적으로 제기되어야 한다. 미디어, 학계, 시민사회는 “성공적인 작전”이라는 프레이밍에 만족하지 말고, 정당성의 언어로 군사 행동을 평가해야 한다.

둘째, 기술 담론에 대한 비판적 해독력. “외과적 타격,” “최적화,” “효율성”이라는 언어가 정치적 책임을 어떻게 희석시키는지 인식해야 한다. 기술은 도구이지, 정당화의 근거가 아니다. 기술 엘리트가 생산하는 담론—기술 우위를 국가 생존과 동일시하고, 민주적 절차를 “비효율”로 치부하는—은 비판적으로 검토되어야 한다.

셋째, 제도적·국제적 견제의 복원. 미국 헌법은 전쟁선포권을 의회에 부여했다. AI 시대의 군사 기술이 전쟁의 정치적 비용을 낮출수록, 이 견제 기능은 더욱 중요해진다. 동시에 국제사회는 자율무기 시스템에 대한 구속력 있는 규범을 만들어야 한다. “의미 있는 인간 통제(meaningful human control)“라는 원칙은 합의되었지만, 그 구체적 내용은 여전히 모호하다.

AI 시대의 전쟁 규범은 아직 확정되지 않았다. 그리고 바로 그렇기 때문에, 지금 이 순간의 정치적 판단은 기술이 아니라 정치철학의 언어로 다시 질문되어야 한다.

효율적인 전쟁은 정의로운 전쟁이 아니다. 정밀한 타격은 정당한 개입이 아니다. 이 구분을 흐리게 만드는 모든 담론에 대해, 우리는 저항해야 한다.

keyword