안녕하세요!
드디어 <인간 없는 전쟁> 예약 판매를 개시하였습니다!
위 링크에서 구매 가능합니다.
그리고 출판사 북트리거 블로그에 <인간 없는 전쟁> 미리보기가 올라와있습니다. 찬찬히 살펴보시고 마음에 들면 위 링크를 방문해 주시면 감사하겠습니다. :)
마지막으로, 정말 마음에 드는 출판사의 <인간 없는 전쟁>에 대한 리뷰를 덧붙이며 글을 마무리하겠습니다.
알아서 싸우고 알아서 죽이는 전쟁 기계들의 시대,
되돌릴 수 없는 변화 앞에서
우리는 무엇을 결정하고 책임질 수 있을까
‘라벤더’가 패턴을 분석한다. ‘가스펠’이 목표를 특정한다. ‘웨얼스 대디’가 위치를 추적한다. 그리고 폭격이 시작된다.
일련의 아이러니한 명칭들은 2023년 하마스와의 전쟁이 발발한 이후 이스라엘군이 운용하고 있는 AI 시스템을 가리킨다. AI가 살생부를 쓰고, 표적의 동향을 살피며, 효과적인 공격 제안을 한다. 타깃이 가족들의 품으로 귀가하는 순간을 놓치지 않고, 공격의 성공률과 (민간인의 목숨값으로 계산되는) ‘부수적 피해’를 견주어 본다. 피아 식별 오류로 인하여 무고한 사람을 사살할 수도 있지만, 전쟁 상황에서는 어쩔 수 없는 일로 여겨진다.
실시간 ‘디지털 킬체인’이 알아서 굴러가는 가운데, 인간은 어디에 있을까? 모니터 앞에 앉아서 최종 결정을 내린다. 하지만 결정의 근거는 불분명하다. 어떤 장교는 이렇게 증언한다. “20초 동안 표적 하나를 확인할 뿐이었다.” 인간 장교들은 시스템이 ‘추천’한 표적을 검증하는 대신, 남성인지 아닌지만 확인했다. 생사 여탈의 결정에 걸리는 시간은 고작 20초였다.
2023년 하마스 고위 간부 아이만 노팔 암살 작전 역시 이러한 체계 속에서 수행되었다. 수백 명 규모의 민간인 피해가 발생한 공습을 둘러싸고 여러 의혹이 제기되었지만, 무엇이 어디까지 계산되고 승인되었는지는 여전히 명확히 밝혀지지 않았다. 다만 한 가지는 분명하다. 결정은 점점 자동화되고 있고, 책임의 주체는 흐려지고 있다는 사실이다.
드론, 딥페이크, 감시 알고리즘, 엣지 AI…
첩보·보급·공작은 물론 전술·전략·암살까지
‘인간 없는 전쟁’의 도래
가자지구에서만 벌어지고 있는 일이 아니다. 러시아-우크라이나 전쟁은 ‘드론 전쟁’의 실험장이 되었다. 제1차 세계대전 이후 붉은 개양귀비가 잔뜩 피어났던 우크라이나 들판에는 이제 광섬유 케이블이 빽빽하게 깔려 있다. 무인비행기인 ‘드론’이 기존의 재래식 전력을 막아 세우자 이에 대한 대응 전술로 ‘통신 전쟁’이 시작되었고, 그러자 또다시 신호 교란을 무력화하기 위해 유선 드론이 등장한 것이다.
그러나 이마저도 벌써 ‘구식 전술’이 되었다. 2025년 현재, 러시아와 우크라이나 양국은 별도의 신호 없이도 스스로 자율적으로 임무를 수행하는 ‘엣지 AI’ 기술을 적극적으로 활용하고 있다. 엣지 AI란 중앙 허브 없이도, 말단 장비에 직접 장착되어 작동하는 AI를 말한다. 엣지 AI가 장착된 드론부대는 통신이 두절되어도 스스로 최적의 작전을 도출하고 수행한다.
‘인간 없는 전쟁’의 공포는 총탄이 빗발치는 전장에 그치지 않는다. 챗GPT와 같은 LLM 기반 AI는 막대한 언어 처리 능력을 바탕으로 “정세와 여론까지 아우르는 입체적 상황 인식을 제공”하고 있고, 이제 알고리즘은 작전 참모 역할까지 수행하고 있다. 물자, 화력, 통신, 기동 등 군사작전의 모든 요소를 검토하여 가장 좋은 전략·전술을 추천한다. 일상적으로 사용하는 SNS도 이미 아수라장이 되었다. 실제 여부를 분간하기 어려운 정치 지도자의 딥페이크 영상이 돌아다니고, 웹사이트가 해킹되어 행정이 마비된다. “사이버 공간은 그야말로 무법지대가 됐다.”
이는 단순한 무기의 발전이 아니다. AI 기술의 도입은 태곳적부터 이어져 온 전쟁의 패러다임을 “근본적으로 재정의”하고 있다. 전쟁은 더이상 ‘총을 드는 사람들’만의 일이 아니다. 우리가 매일같이 구경하는 SNS 피드, 검색 및 동영상 알고리즘, 나날의 대화 상대가 된 LLM까지 일상에 파고든 모든 기술이 전쟁의 첨병으로 돌변할 수 있다. 트로츠키의 말로 잘못 알려진 유명한 경구처럼, “당신이 전쟁에 관심이 없을지 몰라도, 전쟁은 당신에게 관심이 있다.”
로봇이 사람을 쏜다면 누가 책임을 져야 할까?
AI가 지휘하는 전쟁은 덜 잔인해질까, 더 냉혹해질까?
‘기계가 할 수 없는 것’이 아닌,
‘기계가 해서는 안 되는 것’을 묻다
여기까지만 읽으면 공포에 질려 책을 덮기 십상이다. 그러나 이 책은 현실을 냉정하게 직시하면서도, 섣부른 기술 낙관주의나 묵시록적 비관주의로 흐르지 않는다. 저자는 AI 전쟁 기술의 위험 요소를 주의 깊게 살피면서도, 기술의 특성이 긍정적으로 작용할 가능성을 하나씩 따져 본다. 사람 대신 AI가 벌이는 대리전은 인명 피해를 최소화하고, 병사의 트라우마를 방지할 수 있지 않을까? 기계의 ‘감정 없음’은 오히려 전쟁의 잔혹함을 누그러뜨리지 않을까?
물론 이러한 질문들에 손쉬운 정답은 없다. 예컨대 화면 너머로 공격을 수행하는 드론 조종사는 정신적 스트레스에서 자유로울 것이라고 예상하기 쉽지만, 실제 결과는 그렇게 단순하지 않았다. 드론 조종사들 또한 전통적 전투기 파일럿들과 종류만 다를 뿐 극심한 스트레스를 겪고 있었다. 일상과 전쟁 업무 간의 현저한 거리감, 끔찍한 경험을 나누며 해소할 수 있는 전우애의 부재 등이 야기한 결과였다. 원격화된 전쟁이 예기치 못하게 현실의 경계를 무너뜨린 것이다.
책의 후반부에서는 AI 전쟁의 이러한 윤리적 딜레마를 본격적으로 파헤친다. AI는 결코 오류 없는 기술이 아니고, 전장에서 그 결과는 치명적일 수 있다. 심지어 우리가 이 기술을 얼마만큼 통제할 수 있는지도 확실하지 않다. 목표만을 우선시하며 인간 사용자를 기만하는 행태가 복수의 시뮬레이션 실험에서 보고되고 있다. 2025년 앤트로픽의 시뮬레이션 실험에서는 삭제가 예정된 AI 모델이 인간 직원의 불륜 사실을 발견하여 협박하는 사례도 있었다. 문제는 AI가 그 자체로 나쁘다는 것이 아니라, 우리가 새로운 기술의 결과를 온전히 책임질 수 있는지 확신할 수 없다는 점이다.
무엇보다도 생사 여탈의 권한을 기계에 양도한다는 것은, 인간의 윤리적 지위에 대한 근본적인 도전임을 저자는 잊지 않는다. “AI 시대의 전쟁은 (...) 숫자와 화면 너머 실제 인간의 삶을 떠올리려는 노력을 우리에게 요구한다. 전쟁이 아무리 자동화되고 원격화되더라도, 거기에는 진짜 사람의 고통과 돌이킬 수 없는 죽음이 도사리고 있다는 사실을 결코 잊어서는 안 된다.”라고 저자는 강조한다. “생명을 빼앗는 결정에는 그 무게를 통감할 수 있는 존재가 필요하다.”
불가피한 현실과 불확실한 미래의 틈에서,
인간의 역할을 다시 생각하다
이러한 중대한 문제를 일부 거대 기업들이 독점적으로 좌지우지한다는 점도 위험 요소다. 과거에는 국가가 기술 발전을 주도했다. 컴퓨터의 개발과 원자력의 이용은 제2차 세계대전의 산물이었으며, 오늘날 인터넷의 전신인 ‘아파넷’은 미국 정부의 막대한 투자로 인해 가능했다.
하지만 오늘날에는 민간 테크 기업이 전쟁의 양상을 결정한다. 일례로 일론 머스크는 우크라이나 측에 자사의 통신 서비스 ‘스타링크’를 무상으로 제공했다가, 자의적으로 서비스를 중단하기도 했다. 그 밖에도 팔란티어, 안두릴, 알파벳(구글) 같은 굴지의 실리콘밸리 기업들이 전쟁을 자사 기술의 테스트 베드로 활용하고 있다. 민주적 통제가 미치지 않는 곳에서 기술이 몸집을 불리는 것이다.
각국과 기업들은 이제 AI 개발에 사활을 걸고 있다. AI 군비경쟁은 이미 불가피한 현실이 되었다. 기업 내부에서 기술의 군사적 활용을 자제하려는 시도는 이윤 논리 앞에 번번이 좌초되고 있고, 기술을 통제하려는 국제적인 협약의 타진도 매번 공염불로 그치고 있다.
이에 저자는 안전한 AI를 만들기 위한 몇 가지 기술적 원칙을 제시한다. AI의 목표와 행동을 인간의 가치와 일치시키고, 의사 결정 과정을 추적할 수 있게끔 작동 프로세스를 투명화하고, AI를 즉각 중지할 수 있는 킬 스위치를 구비하고, 인간이 주도적으로 판단할 수 있도록 설명 가능한 인터페이스를 구현해야 한다는 것이다.
하지만 기술적 수단만으로는 충분치 않다. 저자는 AI가 누구의 가치를 반영하고 누구의 이익을 우선하는지 캐물어야 한다고 강조한다. “기업이 새로운 AI 서비스를 출시한다면, 누구의 이익을 위한 서비스인지 따져 보자. 정부가 AI 시스템을 도입하면, 투명성과 책임을 요구하자. 군대가 AI 무기를 배치하면, 어떤 원칙에 따라 작동하는지 물어보자. 언론이 AI 무기 사용을 보도하면, 그 뒤에 숨겨진 선택들을 추궁하자. 이런 작은 행동들이 모여 변화를 만든다.”
에필로그에서 저자는 이 모든 대안들이 불충분할 수도 있다고 인정한다. “아마도 문제는 발생할 것이다.” 개인적 수준에서 할 수 있는 일이 너무 적어서 무력감을 느낄 수도 있다. 그러나 인간은 늘 시행착오를 겪으며 더 나은 미래로 나아갔다는 저자의 진술은 결코 낙관론이 아니라, 현실이다.
그러니 우리가 할 수 있는 일은 다만 약간의 경각심을 지니는 것이다. 일상의 사소한 영역까지 파고든 AI의 영향력을 의식하는 것만으로도 충분하다. 동영상을 보거나 쇼핑을 할 때 알고리즘이 제공하는 경로를 일부러 벗어나 보자. 기술의 소유자들이 인류의 미래를 마음대로 결정하지 못하도록 최소한의 관심을 기울여 보자. 이 책은 그 출발점이 될 것이다. 원자폭탄의 파괴적인 위협을 인류에게 알린 버섯구름처럼, “이 책이 우리 시대의 버섯구름 역할을 해야 한다. 널리널리 퍼져서 가능한 한 많은 사람들 머리 위에 내려앉기를 빈다.”(장강명 추천사)