이미 눈앞에 펼쳐진 미래의 지옥도, AI 무기와 전쟁

<인간 없는 전쟁> 을 읽고

by 이용석

책을 다 읽고 리뷰를 써야지, 생각하는 와중에 미국과 이스라엘이 이란을 폭격했고 이란의 최고지도자 하메네이가 죽었다. 이란은 중동 지역 미국 기지를 타깃으로 드론과 미사일을 발사했다. 모든 독서는 현실 속에서 이루어지는 정치적 행위라고 생각하는 편인데, 이번에는 '현실 속에서'라고 표현하면 안 될 것 같다. 전쟁에서 어떻게 AI가 활용되고 있고, 얼마나 깊숙하게 전장에 침투해 있는지 살펴보는 책 <인간 없는 전쟁>은 속과 밖을 구분하는 게 무의미한, 지금 일어나고 있는 전쟁 현실 그 자체가 되어 버렸고, 이 책을 어떻게 읽느냐는 21세기 새로운 전쟁의 시대에 어떤 입장과 태도로 세상을 바라보는지에 대한 정치적 행위가 되어버린 느낌이다. AI에 대해서 잘 모르고, 전쟁과 AI 혹은 무기와 AI에 대해서는 더더욱 잘 몰라서 좀 배워보겠다고 읽은 책이었는데 내 의도, 바람과 무관하게 이 책을 읽고 리뷰를 쓰는 행위 자체가 정치적 투쟁이라는 걸 뼈저리게 느낀다.


photo_2026-03-04_18-38-29.jpg



우크라이나의 전투 - 무인기와 AI


저자는 군사강대국 러시아에 맞서 우크라이나가 재래식 무기의 확연한 열세에 불구하고 전쟁을 패배하지 않고 이끌어 갈 수 있는 것은 상대적으로 저렴한 전쟁용 드론 덕분인데, 이 드론의 전술적 활용을 가능하게 하는 것이 바로 AI라고 말한다. 과거 같으면 러시아의 함대나 탱크를 인간 병사가 근접에서 공격하거나 먼 거리에서 장거리 무기로 공격해야 한다. 전자의 경우 막대한 희생에 비해 성공 가능성이 낮다. 군인들의 희생은 정치인들이 가장 피하고 싶은 리스크다. 후자의 경우 또한 막대한 비용에 성공 가능성이 낮다. 탱크나 함대가 마치 건물처럼 움직이지 않는 타깃이 아닌 경우에는 먼 거리에서 이를 요격하긴 어려운데, 만약 값싼 드론에 AI가 장착되어 있다면 자율항법으로 목표물 근처까지 이동한 뒤, 위성과 교신하며 받은 정보를 실시간으로 분석에 움직이는 타깃을 효과적으로 공략하는 것이다.


가격이 싼 만큼 수백 대의 드론이 부대를 이루어 군사작전을 수행하기도 하고, 이럴 때에는 컨트롤 타워 역할을 하는 AI 사령관과 실시간으로 정보를 주고받으며 수만 가지 상황을 시뮬레이션하고 그를 바탕으로 예측 가능한 변수들에 대응하기 때문에 어떤 면에서는 인간 군인보다 신속하고 정확한 판단을 내린다는 것이다. 우리는 AI 무기라고 생각하면 흔히 마블의 영화 어벤저스 시리즈의 주인공 중 하나인 아이언맨을 떠올리기 쉽다. 인공지능 자비스가 탑재된 종합 공격무기가 바로 아이언맨디아. 그런데 이미 전장의 AI는 아이언맨을 능가했고, 닥터스트레인지의 능력까지 탑재한 거 같다. 마법사인 닥터스트레인지는 자신의 초능력(혹은 마법)으로 빌런인 타노스와 대결에서 예측 가능한 수백만 가지의 경우를 검토한 뒤 이길 수 있는 한 가지 방법을 찾아내는데 이런 막대한 양의 정보와 시뮬레이션을 인간은 할 수 없지만 AI는 짧은 시간 안에 소화할 수 있는 것이다.


미국의 기업 팔란티어가 생산하는 AI 플랫폼 '고담'이 바로 이런 시스템이다. 팔란티어는 2003년 CIA의 지원으로 설립된 데이터 분석 기업으로 '빈지의 제왕'에 나오는 아이템-멀리 떨어진 곳을 볼 수 있는 수정구슬 '팔란티르'에서 이름을 따왔다고 한다. (153쪽) '고담' 또한 영화 배트맨의 배경인 '고담 시티'에서 따온 이름이다. (이후 등장할 이스라엘의 '라벤더'나 '가스펠'까지 어쩜 이렇게들 작명 솜씨가 기만적일까) '고담'이 하는 일은 위성과 드론으로 촬영한 영상, 재래식 방법으로 취득한 정보, 소셜미디어 감시까지 온갖 데이터를 수집하고 패턴 인식을 통해서 분석해 적의 움직임을 포착한다고 한다. 또한 과거 데이터에서 패턴을 찾아 미래 예측까지 할 수 있다고 한다. 우크라이나는 이 '고담'을 통해 매복한 러시아의 전차를 찾아내 공격하고, 러시아 군 차량의 이상 패턴을 감지해 도로 안에 가두어버리는 등 혁혁한 공(?)을 세웠다는 것이다. (154쪽)



이스라엘의 전쟁 범죄 - 라벤더, 가스펠, 웨얼스 대디Where's Daddy?


책은 이스라엘의 사례도 자세히 소개한다. 우크라이나가 전통적인 전투 현장에서 AI를 적극 활용했다면 이스라엘은 전투가 아니라, 점령과 학살에 AI를 활용하고 있다.


이스라엘군이 운용하는 AI 시스템인 '라벤더'와 '가스펠'은 전투를 위한 플랫폼이 아니라, 그야말로 압도적인 학살을 위한 AI 플랫폼이다. 이스라엘군 정보기관인 8200 부대가 개발했다는 '라벤더'는 여러 경로로 취득한 정보와 데이터를 분석해 하마스 대원들의 행동과 통신 패턴을 학습한 뒤, 이를 바탕으로 가자 주민들을 실시간으로 감시하여 잠재적 위험인물을 지목하는 시스템이다. 온갖 자료를 바탕으로 기준을 만들고, 그 기준에 부합하는 사람 한 명을 찾아내는 데 고작 20초 밖에 안 걸린다고 한다. 물론 모든 AI의 근본적인 한계인 할루시네이션을 이 라벤더 또한 가지고 있어서 라벤더가 생성한 정보가 진짜인지 확언할 수 없고, 실제 라벤더가 10퍼센트의 확률로 잘못된 표적(작전과 무관한 사람들)을 겨냥하지만, 이스라엘군은 실전에서 라벤더가 식별하고 선택한 표적의 성별만 확인하고 공격 승인 명령을 내렸다 한다.(161쪽)


이렇게 식별한 표적을 살해하는 AI는 이름마저 고약한 '웨얼스 대디Where's Daddy?'다. 휴대전화 위치 추적으로 표적으로 지정된 인물이 특정한 장소에 나타나면 폭격할 수 있도록 알려주는 프로그램이다. 역시나 이 또한 휴대폰 위치 정보만으로 특정 개인의 존재 여부를 정확하게 식별할 수 없고, 군사적 표적이 아닌 민간인(표적의 가족)까지 희생되는 등 여러 문제점이 있지만 이스라엘은 전혀 개의치 않고 있다. '라벤더'와 '웨얼스 대디'가 개개인을 표적으로 삼는 AI라면 '가스펠'은 폭격 가능한 목표물을 설정하는 시스템이다. 여러 경로로 수집한 다양한 형태의 데이터를 통합적으로 분석해 순식간에 군사 표적을 설정한다고 한다. 이스라엘군의 연간 공격표적이 50개 수준이었던 반면 '가스펠'은 하루 만에 100개의 표적은 만들어낸다. 작년(2025년) 6월 이스라엘의 이란 폭격 당시, 개전 초기에 이스라엘이 이란 혁명수비대의 고위 지휘관과 핵과학자 수십 명을 폭사시켰던 것 또한 이러한 AI 시스템 활용 덕분이었다고 한다.(162쪽)


지금까지 이스라엘이 저지른 전쟁범죄만으로도 인류 역사를 파괴할 정도로 끔찍한 수준인데, 더 짧은 시간에 더 많은 학살과 파괴를 할 수 있도록 AI 시스템이 날개를 달아주고 있는 셈이다.



아쉬움 - 윤리적 딜레마 대한 피상적인 고찰


AI가 실제 전쟁에서 얼마나 적극적으로 활용되고 있고, 어떻게 활용되는지 알고 싶다면 이 책이 안성맞춤이다. AI 기술에 대해 잘 알지 못하더라고, 무기 체계에 대해 잘 모르고 헷갈려하더라도 이해하는 데 어렵지 않게 다양한 사례를 보여주며 설명하는 것은 이 책의 커다란 장점이다. 반면 AI 무기 혹은 전쟁에서 AI를 적응 사용하는 것의 문제점을 비판적으로 검토하거나, 이를 어떻게 대응해야 할지에 대한 고민은 상대적으로 매우 빈약해 보인다.


'5장 AI 전쟁의 윤리적 딜레마'에서 AI 무기의 긍정적 측면과 부정적 측면을 골고루 다루는데 그야말로 기계적으로 '골고루' 다루고 있고, 평화활동가의 입장에서 보자면 긍정적인 측면으로 이야기하는 것들은 잘못되거나 비현실적인 전제를 바탕에 두고 있다. AI 무기는 인간 군인보다 정밀하기 때문에 불필요한 민간인의 희생을 줄일 수 있고, 인간 병사처럼 복수심에 불타지도 않기 때문에 목표 수행만 할 뿐 불필요한 학살을 예방할 수 있다는 것이 하나의 이유다.


나는 이 주장이 전제부터 잘못되었다고 생각한다. 전쟁에서 민간인이 죽거나 대량학살이나 전쟁범죄가 일어나는 까닭은 인간 병사들이 AI 무기보다 감정적이라거나 정밀하지 않아서가 아니다.


'폭격'이라는 키워드로 한국전쟁을 읽는 책 <폭격>애서 저자 김태우는 공군이론의 창시자로 평가되는 줄리오 두에(Guilio Douher)를 소개하며 다음과 같이 이야기한다. "두에는 적의 저항의 지를 말살하는 것이야말로 전쟁의 주요 목적이 되어야 한다고 주장하면서, 공군력에 의한 적의 핵심지역(vital centers) 무력화를 강조했다. 두에는 심지어 "군사목표보다 공업목표를 중시해야 하며, 적국의 도시에도 인정사정없이 타격"을 가해야 한다고 주장했다. 그에게 군사작전의 핵심 파괴 대상이란 적 병력이 아니라 오히려 적 점령지역의 민간인들이었다."(<폭격> 28쪽)


공군의 폭격에 대한 이야기지만 전쟁에 대한 보편적인 속성으로 확장해도 무방하다. 그렇다면 감정을 컨트롤하지 못하는 인간 병사들의 복수심이 전쟁 범죄를 낳는 게 아니라, 인간 병사를 그런 상황으로 몰아넣으면서까지 적개심을 유발하고 전쟁범죄를 통해 상대방의 사기를 꺾기 위해 이를 방치 혹은 조장하기 때문에 학살과 전쟁범죄가 일어나는 것이다. 즉 전쟁에서 인종학살, 인종청소, 집단 강간은 개개인의 감정적인 일탈이 아니라 전략적적인 행동인 셈이다.


<인간 없는 전쟁>에도 소개된 바 이스라엘군은 '라벤더'의 할루시네이션 때문에 무고한 사람이 죽을 수 있다는 걸 알면서도 표적을 제거할 때 민간인 15~20명 정도의 부수적 피해는 허용한다는 지침을 내렸다고 하니(161쪽), AI 무기는 전쟁범죄 감소와 아무 연관이 없고 오히려 그 막강한 능력치 때문에 전쟁 범죄에 쓰일 경우 더욱더 거대한 피해를 초래할 수 있다. 저자가 말한 긍정적인 요소가 작동하기 위해서는 모든 정치적 행위자가 국제법을 준수하고 민간인을 표적살해하지 않는 합리적이고 근대적인 인간이라는 가정이 참이어야 하는데, 트럼프와 네타냐후만 봐도 이는 성립할 수 없는 가정이다.


저자가 이야기하는 두 번째 장점은 AI 무기가 인간 병사 대신 전투를 벌이기 때문에 병사들의 죽음을 예방하고 또한 전쟁터를 겪으면서 오는 PTSD 같은 것들로부터 병사의 마음을 지킬 수 있다는 점이다. 이는 일견 타당해 보이는 이야기다. 저자에 따르면 베트남전쟁의 트라우마로 병사들의 희생에 극도로 민감한 미국(을 비롯한 서방국)에게 AI 부대의 전투는 매력적인 대안이라는 것이다.(247쪽) 인구 감소로 병력 충원에 어려움을 겪는 우리나라는 말할 것도 없고.


물론 당연하게도 군인도 시민, 전쟁에서 군인들이 덜 죽거나 죽지 않는 것은 매우 중요한 일이고 반길 일이다. 하지만 이러한 관점은 전쟁이라는 쌍뱡향의 폭력적 정치 행위를 입체적으로 바라보지 않고, 어느 한쪽의 입장에서만 생각하는 것이다. 총을 쏘는 자의 목숨이나 마음은 보호할지 몰라도, 총에 맞는 이의 목숨까지 구할 수는 없는 법. 물론 드론끼리만 싸우고 전투로봇끼리만 싸우면 된다지만, 앞서 이야기한 것처럼 민간인에 대한 폭격과 전쟁범죄는 전쟁의 참혹한 전략이라는 걸 고려한다면 AI끼리만 싸우는 전쟁은 마치 바둑이나 장기로만 싸우는 전쟁처럼 비현실적인 이야기다. 게다가 이미 많은 사람들이 지적하고 있고, 저자도 이야기하는 것처럼 정치적 부담의 감소는 더 많은 전쟁으로 이어질 수도 있다. 군인들의 죽음이라는 정치적으로 막대한 부담감에서 벗어난 정치인들은 전쟁이나 군사행동에 더 빈번하게 나서기 쉽다는 것이다.


윤리적 딜레마에 대한 고찰은 아쉬웠지만 AI 군비 경쟁에 대한 업계 내부의 자정을 위한 노력 소개와 안전한 AI를 만들기 위한 원칙을 제시한 6장은 무척 흥미로웠다. 마침 앤트로픽이 미 전쟁부(국방부)의 AI 군사활용에 있어서 ‘대규모 국내 감시’와 ‘완전 자율 무기’ 사용을 거부했고 그로 인한 빈틈을 파고들어 오픈 AI가 미 전쟁부와 계약을 체결했다는 뉴스를 접하고 있는 터라 이 내용이 더 흥미로웠다.


저자가 주장 안전한 AI를 만들기 위한 원칙은 크게 세 가지다. 첫째 AI 정렬, 둘째 추적 관리와 찰저한 안전 프로세스, 셋째 인간 감독과 AI 자율성의 균형이다. '정렬'은 내가 이해한 바를 쉽게 말하면 "뭣이 중헌디!"다. AI가 결론을 낼 때 목표와 행동을 인간의 가치와 일치시키도록 하는 것인데, 저자도 이야기하는 바 가치라는 것은 맥락적이기 때문에 아무리 기술이 발달해도 가치판단에서 편향성이 발생할 수 있다. 저자의 표현을 빌리자면 "정렬이 AI에게 올바른 가치를 가르치는 것이라면, 추적 관리는 실제로 AI가 그렇게 행동하는지 확인하고 기록하는 것이다"(318쪽) 핵발전 시스템의 안전 연구를 참고하자고 주장한다. 마지막 인간 감독과 AI 자율성 사이의 균형은 중요한 결정에 인간이 개입해야 한다는 뜻이고 이를 기술적으로 적용한다면 언제든지 AI를 강제로 중단시킬 수 있는 킬 스위치, AI의 모든 판단과 행동을 기록하는 로그 시스템, AI가 자신의 판단 근거를 함께 제시하도록 하는 인터페이스가 필요하다고 이야기한다.



내 문제의식과 던지고 싶은 질문


저자의 안전한 AI를 만들기 위한 원칙은 흥미로웠지만 근본적인 해결책처럼 느껴지진 않았다. 마치 한번 터진 핵폭탄이 지구를 그 이전으로 돌아갈 수 없을 정도로 심각하고 불가역적인 피해를 입히는 것처럼, AI 무기 또한 인류에게 복구 불가능한 피해를 줄 수 있는 무시무시한 무기라고 생각한다. AI 자체는 하나의 시스템일 수 있지만 그게 어떤 살상무기와 결합하느냐에 따라 파괴력이 말도 안 되게 증폭될 수 있으니까. 게다가 핵폭탄과 다르게 AI 무기는 이미 전장에서 적극적으로 사용되고 있고, 우리 일상과도 밀접해 민간용과 군수용의 경계가 모호하기 때문에 어떤 면에서는 핵폭탄보다 더욱 무서운 무기일 수도 있다.


그런 측면에서 보자면 "이번에도 우리는 답을 찾을 것이다"(에필로그의 제목, 336쪽)는 말로 상징할 수 있는 저자의 인식은 굉장히 나이브하다. AI 무기가 피할 수 없고 이미 도래한 변화라고 하더라도 문제점은 더 무겁게 다루고, 대응 방안은 더 깊게 들어가야 현실적으로 실효성 있는 논의가 가능하다고 생각한다. 물론 나의 능력으로는 이를 논할 수 없지만(그럴 능력이 있으면 나도 이 주제로 책을 썼지), 무기가 여타의 상품과는 다르고 우리는 이를 시장에만 맡길 수 없는 것처럼 AI무기는 여타의 살상 무기들과는 또 다르기 때문에 일반 무기보다도 엄격하게 신중하게 접근해야 한다는 것 정도는 알고 있다. 그리고 AI 무기에 대해 여전히 해소되지 않는 문제의식과 평화활동가로서 던지고 싶은 질문도 있다.


질문에 앞서 AI 무기의 문제점, 이에 대한 규제가 어떻게 이루어져야 하는지에 대한 논의와 정보를 따라가고 싶은 사람들에게는 다음의 자료들을 추천한다.


참여연대 - 군사 AI쟁점 토크 시리즈 War, Peace + AI ① 인공지능과 전쟁의 미래 자료집

피스모모 연구보고서 – 인공지능 무기화와 인간의 자리: 자율무기체계와 국제인도법, 인권 및 윤리적 쟁점 톺아보기


나의 문제의식은 결국 전투의 바깥에 있다. 무슨 말이냐면 AI 무기를 규제하는 국제법, 각국의 법률과 제도는 분명히 필요하지만 더 근본적으로는 군비증강에 대한 경쟁을 중단하거나 완화하고 점진적인 군축으로 가는 것밖에 해답이 없지 않을까 하는 것이다. 위 자료들에도 자세히 서술되어 있는데, 자율살상무기체계 규제를 위한 국제규범을 논의하는 기구들이 있지만, 당사국들 간의 이해관계 때문에 몇 년째 답보 상태에 머물러 있다. 유수의 무기거래 규제 조약들이 실질적으로 힘을 쓰지 못하고 있는데, 가장 핵심적이고 문제적인 국가들이 해당 조약에 가입하지 않기 때문이다. 또한 자율살상무기체계 규제가 어찌어찌 성안이 되더라도, 이스라엘의 라벤터나 가스펠처럼 직접 공격하는 게 아니라 방대한 데이터를 바탕으로 목표물을 설정하는 등의 AI 시스템은 전쟁에서 결정적인 역할을 하고 있지만 자율상살무기로 분류되지 않아 규제할 수 없다는 맹점도 있다.


AI 무기가 기존의 무기와 구별되는 주요한 특징들은 전장의 풍경이나 전쟁의 문법을 바꿀만한 것들이기 때문에 분명히 규제가 필요하지만, 각국이 지금처럼 군비경쟁에 혈안이 되어 있는 시기에 AI 무기만 달랑 떼어내서 기술적이고 정치적인 차원에서 규범과 규제를 논의하는 것은 무의미해 보인다. 결국 군축이라는 넓은 틀의 방향을 인류가 지향하는 것이 전제되어야 하지 않을까. 그렇다고 규제와 규범을 논의할 필요가 없다는 게 아니라, 군축에 대한 의지 없이는 효과가 확연하게 떨어질 수밖에 없다는 생각을 책을 읽는 내내 했던 것이다.


그리고 질문 하나. 이 책의 서술을 보면, 혹은 미국이 베네수엘라 마두로 대통령을 납치하고 이란을 폭격하는 것을 보면, 혹은 우크라이나가 군사력의 열세에도 AI를 활용해 러시아군의 진격을 멈추게 한 것들을 보면 확실히 AI무기는 전쟁의 양상을 크게 변화시킬 거 같다. 전투기 폭격이 본격적으로 시작된 제2차 세계대전이 참호전의 제1차 세계대전과는 다른 양상인 것처럼, 아니 그보다 훨씬 큰 변동의 폭을 보여주겠지. 이때 평화운동은 어떤 방식으로 저항을 이어가야 할까? 우리가 알고 있는 대부분의 반전운동-대규모 반전운동, 양심적 병역거부, 군수산업체에 대한 감시 같은 것들은 20세기 전쟁의 문법을 분석해서 약한 고리를 공략하는 방식이었다. 보병의 숫자가 중요했던 제1차 세계대전 때 제국주의 국가들이 전쟁 수행을 못하게 하기 위해 해당 국가의 평화운동이 병역거부를 조직한 것이 대표적이다. 그런데 이제는 인간 군인이 아닌 드론이 전투를 하고, 정치인들은 AI를 활용해 전쟁에 대한 여론을 때로는 불법 조작하거나 혹은 교묘하게 여론을 선동하고, AI 기술에 있어서 군사용 기술과 민간용 기술의 경계가 희미해져 감과 동시에 전쟁이 외주화 되어 빅테크 기업들이 전쟁 장사에 적극적으로 뛰어들고 있다. 인간 병사의 병역거부를 AI를 탑재한 드론이 대체하는 세상에서 우리는 과연 어떻게 해야 전쟁을 지속하고자 하는 사람들을 압박할 수 있을까. AI 기술만큼이나 빠르게 변하는 전쟁의 양상은 효과적인 평화운동의 전술과 전략을 고민할 여유조차 주지 않고 있는데 말이다.


나는 낙천적인 사람이지만, 저자의 나이브한 낙관론을 비판한 만큼 인류가 AI 무기를 잘 컨트롤하거나 규제할 수 있을 거라는 말은 차마 못 하겠다. 다만 늘 그렇듯 평화에는 묘수가 없다는 생각이다. AI 기술의 발전 속도보다 우리의 논의 속도가 느리더라도 해야 할 일을 하지 않고서 앞으로 나아갈 순 없다. 우선은 AI 무기의 능력을 과장해서 받아들여 불필요한 공포심에 사로잡혀 오판하지 않도록, 혹은 이미 전장에 적극 도입되어 있는 AI 무기를 과소평가해서 시대의 변화에 뒤처지지 않도록 공부를 해야겠다.








매거진의 이전글절망하는 이들을 위한 민주주의