매거진 책을 읽다

최재운 <인간 없는 전쟁>

두려움도 분노도 없는 AI 전쟁기계의 등장

by morgen

<인간 없는 전쟁> 최재운 지음. 2026. (주)지학사-북트리거


"1938년 9월30일 저녁, 런던 교회 헤스턴 비행장. 활주로를 적시는 가을 비 속에서 불빛들이 흐릿하게 번진다."로 프롤로그가 시작된다. 이 한 문장으로 세계대전에 대한 여러 생각들이 확 몰려온다.

불가리아의 맹인 예언자 바바 반가(Baba Vanga)가 2026년에 제3차 세계대전이 일어날 수 있다는 예언을 했다는 말이 시끄럽게 떠돌고 있다. 물론 검증되지 않은 민간 예언자의 말인데, 세계 곳곳에서 일어나고 있는 전쟁들을 바라보며 사람들은 이러다가 3차 대전이 일어나는 것 아닌가하는 공포감을 느끼고 있다.

이런 중에 최재운 작가의 <인간 없는 전쟁>을 만났다.

1938년 9월30일, 영국 총리 네빌 체임벌린은 뮌헨에서 히틀러와 함께 평화협정에 서명했다. 평화의 축제는 1년을 채 못채우고 1939년 9월1일 세계 제2차 대전이 발발했다.

2022년 2월24일, 러시아의 대통령 푸틴은 우크라이나 침공을 선언했다. 2026년, 세계는 지금 전쟁의 소용돌이에 휩싸여 있다. 바바 반가의 예언을 들먹일 필요도 없이 세계적인 석학들의 전쟁에 대한 경고가 이어진다. <인간 없는 전쟁>은 프롤로그에서 전쟁의 위험과, 과거와는 완전히 달라진 전쟁의 양상에 대한 이야기를 풀어놓는다.

사실 나는 책에 등장하는 여러 무기들에 대하여는 무지하다. 평소 나의 관심사도 아니다. AI에 대하여, 무기에 대하여 호기심이 있는 독자들에게는 아주 흥미진진한 책일 것이다.

이야기를 따라가다보면 첨단 무기가 등장하는 전쟁, “인공지능의 손에 맡겨진 전쟁”이라는 대목에서 문득 생각나는 것이 있다. 전쟁이란 강대국들의 패권 쟁탈이구나, 첨단 무기를 개발할 수 있고, 소유할 수 있고, 사람 대신 AI를 전사로 내세울 수 있는, 그런 나라들 끼리의 패권전쟁에, 거기에 끼어들 재간이 없는 나라들은 그저 그들의 이익에 따라 휘둘리는 불쌍한 신세로구나, 이런 생각에 우울해진다. 책에서도 이런 점을 지적한다.

2010년대 초반까지 첨단 드론을 운용할 수 있는 나라는 미국을 비롯하여 극소수에 불과했다. 이유는 간단했다. 돈과 기술, 그리고 인프라였다. 114쪽

이제 전쟁은 PC게임 한 판 해치우듯 흥분되는 일인가. SF영화 한 편 보는 것이나 다름없는 일인가.


두려움도 분노도 없는 AI 전쟁 기계의 등장

전쟁을 떠올릴 때 우리는 여전히 인간의 얼굴을 먼저 상상한다. 공포에 질린 병사, 명령을 내리는 지휘관, 승리와 패배 앞에서 흔들리는 감정들. 그러나 <인간 없는 전쟁>은 이 익숙한 상상을 단호하게 끊어낸다.

두려움도 분노도 없는 존재가 전쟁을 수행하는 시대에, 전쟁은 더 인간적이 될 수 있는가, 아니면 완전히 다른 무엇이 되는가. 책은 산업의 발달과 전쟁무기의 진화를 연결한다.

18세기 산업혁명을 지배한 영국은 “해가 지지 않는 제국”이 되었다.

정밀한 기술은 산업에만 활용되지 않았다. 와트가 증기기관을 발전시키는 동안, 윌킨슨은 신형 대포를 만들어 내는 데 골몰했다. 41쪽.

기술의 발전은 필연적으로 군사 무기들의 발전도 가져왔다. 저자는 “산업혁명을 주도한 나라가 세계를 지배한다”는 사실을 역사의 교훈이라 말한다. 1차 산업혁명도 그러했고, 2차 산업혁명 역시 그러하다. 최강국이 영국에서 미국으로 바뀌었다. 전쟁의 포화로 활활 불타고 있는 유럽에 미국이 참전한다.

미국은 민주주의의 병기고로서 전쟁 물자를 쏟아 내기 시작했다. 상상을 초월하는 물량이 미국에서 유럽으로 흘러들었다. 45-46쪽.

책은 미국과 소련의 각종 과학기술 발전과정과 그를 기반으로 첨단화해가는 무기, 그를 운용하는 단체들을 소개한다. 역사적 굵직굵직한 군사충돌에 대한 사례를 펼쳐놓았다. 1차, 2차 산업혁명을 지나 3차 산업혁명은 미국에게 냉전의 승리를 안겨준다.

미국의 승리는 군사력의 승리가 아니었다. 과학기술과 혁신 시스템의 승리였다. 자그마한 반도체 칩이 거대한 소련 제국을 무너뜨린 것이다. 56쪽.

저자는 이제 4차 산업혁명을 이야기한다.

변화의 소용돌이 속에서 AI를 손에 쥔 자가 미래를 지배한다는 인식이 세계 각국에 퍼지고 있다. 2017년 러시아의 푸틴 대통령은 "인공지능 분야에서 돌파구를 먼저 마련하는 자가 세계를 지배할 것"이하고 단언했다. 57쪽. (2017.9.1 APNews 인용)

미국은 AI를 핵무기급 전략 자산으로 지정했고, 시진핑 주석은 군사 AI 체계 구축을 선언했다.


저자는 인류에게 불을 가져다 준 프로메테우스 신화에 빗대어 핵무기를 개발한 로버트 오펜하이머(Julius Robert Oppenheimer,1904-1967)와 인공신경망을 개발한 제프리 힌턴(Geoffrey Everest Hinton,1947 - )을 이야기한다. 우리에게 새로운 불을 가져다 준 두 과학자의 고뇌를 풀어놓는다. 나는 <아메리칸 프로메테우스>책을 읽지는 않았지만, 몇 년 전에 영화 <오펜하이머>를 보았다. 문장을 읽어가면서 핵무기 통제를 주장하던 오펜하이머(배우 킬리언 머피)의 모습이 자꾸만 떠올랐다. 힌턴은 바로 지지난 해, 한강이 노벨 문학상을 수상하던 2024년에 노벨 물리학상을 수상하여 낯선 인물은 아니다. 이 위대한 두 과학자의 인간적인 고뇌는 책 속에서만 묘사되는 것이 아니라 바로 눈앞에 다가온 위협이다.

오펜하이머는 핵무기 통제를 주장하다 매국노로 낙인찍혔고, 힌턴은 AI의 위험성을 경고하다 '기술비판론자'라는 비난을 받았다. 하지만 역사는 이들의 경고가 옳았음을 증명한다. 69쪽


우리는 러시아와 우크라이나 전쟁에서 지난 시대의 전쟁과 확연히 달라진 전쟁의 양상을 목격하고 있다. 병사들이 총칼을 휘두르며 육탄전을 벌여서 승패를 가르는 시대는 영화 속에서나 존재한다. 21세기의 전쟁은 정부의 권력으로 치려지지 않는다.

실리콘밸리의 CEO가, 시애틀의 클라우드 엔지니어가, 그리고 AI를 개발하는 스타트업이 전쟁의 향방을 좌우할 수 있다. 기술의 발전 속도가 너무 빨라서 정부가 따라잡을 수 없기 때문이다. 81쪽.

이 책이 다루는 것은 단순한 군사 기술의 진보가 아니다. AI 무기 체계, 자동화된 살상 결정, 알고리즘에 위임된 전쟁 판단은 실험 단계를 넘어 현실의 문턱에 와 있다. 아니, 이미 문턱을 넘었다. 저자는 이 변화가 단지 ‘효율적인 전쟁’의 문제를 넘어, 전쟁에서 인간이 어떤 방식으로 사라지고 있는지를 집요하게 추적한다. AI가 인간보다 더 잘 싸운다.

AI의 진짜 강점은 인간의 한계를 넘어선다는 점이다.123쪽.

AI기술이 없다면 오늘날의 무인 전투체계들은 제대로 기능하지 못한다. 현재 AI기술은 이들에게 자율성을 부여하고 있다. --- 무인기가 인간 조종사의 개입없이 자동으로 표적을 식별하고 추적하는 기술도 빠르게 발전하고 있다. 142쪽


인간이 빠져나간 자리

책에서 가장 인상적인 대목은 ‘인간 없는 전쟁’이 곧 ‘책임 없는 전쟁’으로 이어질 수 있다는 지점이다. 전쟁의 결정이 점점 더 자동화될수록, 누가 책임을 지는가라는 질문은 흐릿해진다. 알고리즘은 판단하지만, 죄책감을 느끼지 않는다. 기계는 목표를 제거하지만, 그것을 ‘살해’라고 인식하지 않는다.

저자는 기술의 중립성이라는 오래된 신화를 정면으로 건드린다. AI는 감정이 없기에 냉정하고, 냉정하기에 오히려 윤리적일 수 있다는 주장에 대해, 이 책은 조심스럽지만 분명하게 의문을 제기한다.

유엔 보고서에 따르면 이 드론들은 운용자의 조종이나 데이터 연결 없이도 지정된 작전 구역을 자율비행 하며 적군을 찾아서 사격했다. '카르구-2'는 퇴각하는 병사를 끝까지 사냥하여 공격했는데, 이 과정에서 인간의 개입이나 통신 없이 완전히 독립적으로 표적을 탐지하고 교전한 것으로 추정된다. 명령을 받은 적도 멈추라는 지시를 들은 적도 없이 스스로 인간을 추적해 살상에 이른 첫 번째 사례로 기록됐다. 145쪽. (Lipika Majumdar Roy Choudhury et al. “Final Report of the Panel of Experts on Libya ---- " United Nations Security Counsil, 2021 인용)

윤리란 감정이 제거된 상태에서 성립하는가, 아니면 책임을 감당할 수 있는 존재가 있을 때만 가능한가. 우크라이나 - 러시아 전쟁은 AI시대의 전쟁을 가감없이 보여준다.

페도로프 장관은 숨기지 않고 말한다. "우크라이나는 세계 최고의 기술 테스트베드다. 우리의 목표는 이 나라를 거대한 R&D 실험실로 만드는 것이다." 156쪽. (Bergengruen, Vera 인용)


더 깨끗한 전쟁이라는 환상

AI 전쟁 기술은 흔히 ‘정밀성’과 ‘피해 최소화’라는 언어로 포장된다. <인간 없는 전쟁>은 이 언어가 만들어내는 환상을 경계한다. 전쟁이 점점 화면 속 데이터와 좌표로 환원될수록, 죽음은 통계가 되고 피해는 부수적 수치가 된다. 전쟁은 더 이상 ‘보이지 않는 잔혹함’이 아니라, 보이지 않기 때문에 잔혹함조차 감지되지 않는 상태로 이동한다.

작가 장강명은 "최근 몇 년간 읽은 책 중 이보다 더 무섭고 소름 끼치는 책은 없었다."고 했는데, 정말 그렇다. 어려서 듣던 화장실의 빨간 장갑 귀신보다, 학교 옥상에서 뛰어내린 머리 풀어헤친 귀신보다 더 소름끼치게 무섭다. 2023년 하마스의 기습 공격 이후 3만7천 명의 가자 주민이 잠재적 요주의 인물로 지목됐다. 이들은 어떤 위험에 처했는가.

익명의 이스라엘 장교는 기계가 차갑게 처리해 오히려 수월했다며, 자신들은 그저 도장찍는 역할만 했다고 증언하고 있다. 또 다른 장교는 더 구체적으로 증언했다. "20초 동안 표적 하나를 확인할 뿐이었다." 20초. 한 사람의 생사를 결정하는 데 걸린 시간이다. 158쪽.

전쟁이 멀어질수록, 우리는 더 쉽게 전쟁을 허락해왔다. 인간 병사의 희생이 줄어든다는 이유로, 전쟁의 문턱은 오히려 낮아지는 것은 아닐까. <인간 없는 전쟁>은 바로 이 지점을 파고든다. 기술이 전쟁의 고통을 줄이는 것이 아니라, 전쟁에 대한 우리의 감각을 무디게 만드는 방식으로 작동할 가능성을 말이다.

우리의 생명이 기계의 20초에 달려있다니. 단 20초!

정확도와 민간인 피해라는 문제가 대두될 수밖에 없었다. 군 정보원들은 라벤더가 약 10퍼센트의 확률로 작전과 무관한 사람을 겨냥한다는 사실을 인지하고 있었다(물론 이러한 확률은 어디까지나 비공개 군 자료에 근거한 내부 추정일 뿐이며, 실제 오폭률은 정보 접근성과 피해 집계 방식에 따라 크게 달라질 수 있다)(Abraham, Yuval 인용). 그럼에도 초기에는 이를 무시한 채 성별만 확인하고 공격 승인을 내렸다.

더 충격적인 건 상부의 방침이었다. 표적을 제거할 때 민간인 15-20명 정도의 부수적 피해는 허용한다는 지침이 내려왔다.(The Gardian. 2024.4.3 인용) AI가 추천한 표적을 제거하기 위해 민간인 희생은 어느 정도 감수하는 정책이 시행된 것이다. 161쪽.


인간은 정말로 빠져나갈 수 있는가

이 책이 단순한 기술 비판서로 끝나지 않는 이유는, 저자가 끝까지 인간의 위치를 묻기 때문이다. 인간은 정말로 전쟁에서 사라질 수 있을까. 아니면 단지 결정의 최종 단계에서만 보이지 않게 숨어버린 것일까.

AI는 스스로 전쟁을 시작하지 않는다. 목표를 설정하고, 적을 정의하고, 제거의 기준을 만든 것은 여전히 인간이다. 문제는 그 이후다. 인간은 판단의 고통과 책임의 무게를 기계에게 넘기며, 자신은 한 발 물러선다. 이 책은 이 물러섬이 과연 도피인지, 진화인지 독자에게 되묻는다.

어렸을 때, 전쟁은 군인들만 싸우는 줄 알았었다. 군인이 아닌 사람은 안싸우는 줄 알았었다. 이제 군대가 아니어도, 여럿이 패를 짓지 않아도, 민간인이 혼자서도 전사가 되는 시대다.

과거 국가가 독점하던 전쟁이 민간에 개방됐다. 키보드와 인터넷만 있으면 누구나 전사가 될 수 있다. 물리적 국경이 의미가 없는 사이버 전장에서 국적과 소속은 중요하지 않다. 중요한 건 코드를 짤 수 있는 능력이다. 172쪽.


인간의 자리, 마지막으로 남는 질문

책의 후반부로 갈수록 저자의 질문은 더욱 집요해진다. 이제 논의는 ‘AI가 얼마나 강력한가’의 문제가 아니라, 우리가 왜 이토록 쉽게 전쟁을 자동화하려 하는가로 이동한다. 인간은 정말 전쟁에서 빠져나가고 싶은 것일까. 아니면 피를 묻히지 않고도 지배하고 싶어 하는 것일까.

AI는 결정을 대신하지만, 결정의 조건을 만들지는 않는다. 적을 정의한 것도, 위험의 기준을 수치로 환산한 것도, 허용 가능한 민간인 피해를 설정한 것도 결국 인간이었다. 다만 인간은 이제 버튼을 누르지 않을 뿐이다. 화면을 바라보고, 승인 표시를 확인하고, 로그를 남길 뿐이다.


AI가 전략까지 짜는 이 시대에 작가는 눈여겨 봐야 할 것 4가지를 제시한다. "결정적 순간의 소멸", "불확실성의 제거", "감정의 배제", "책임의 분산"이다. 나는 이 "책임"에 밑줄을 긋는다.

AI가 내린 결정으로 민간인이 희생되면 누가 책임질 것인가? AI를 만든 개발자? 시스템을 실제로 운용한 군인? 작전을 승인한 지휘관? 이 모호함은 전쟁 억지력의 약화에 영향을 줄 수 있다. 책임을 물을 대상이 불분명할수록 인간이 전쟁에서 느끼는 죄책감은 줄어들 수밖에 없다. 232쪽.

책임은 어디에 남는가. "책임"이라는 무거운 명제는 우리에게 피해갈 수 없는 질문을 던진다.

자율주행 자동차가 오작동으로 보행자를 쳤다면 그 책임은 차량 소유주에 있을까, 아니면 프로그램을 만든 기업이나 엔지니어에게 있을까? 혹은 자동차에게 책임을 물을 수는 없을까? 마찬가지로, 전쟁이라는 극한 상황에서 AI가 생사의 판단을 내리고 사람을 죽였다면 과연 누구를 탓해야 할지 명확히 답하기 어렵다. 274쪽.

나는 아무리 궁리해봐도 궁극적인 책임은 인간에게 있다는 결론밖에 달리 생각할 수가 없다.

책을 읽으며 문득 ‘전쟁범죄 재판’이라는 개념이 앞으로도 유효할 수 있을지 의문이 들었다. 명령자는 알고리즘을 탓하고, 개발자는 사용 방식을 탓하며, 국가는 시스템의 복잡성을 이유로 책임을 유보한다. 누가 죄인인가. 인간이 전쟁에서 사라질수록, 죄도 함께 증발하는 것은 아닐까. 오싹 소름이 돋는다.


전쟁은 더 쉬워졌는가

인간 병사의 사망이 줄어들면, 정치 지도자들은 전쟁을 선택하는 데 더 적은 부담을 느낀다. 시민 사회 역시 ‘우리 쪽 피해가 적다’는 이유로 전쟁을 묵인하게 된다. 전쟁은 그렇게 점점 더 허락되기 쉬운 선택지가 된다.

컴퓨터 화면에서 클릭 몇 번으로 수만 명의 병력이 이동하고, 알고리즘이 자동으로 전투 결과를 계산해 숫자로 보여준다. ---인명 피해는 더더욱 추상적인 데이터가 됐다. 이러한 접근법이 현실의 전쟁 지휘에도 스며들면, 사령관에게 전쟁은 그저 지도와 숫자로 이루어진 '게임'이 되기 쉽다. 281쪽.

이 문장을 읽으며 나는 전쟁 뉴스를 대하는 나 자신의 태도를 떠올렸다. 화면 속에서 폭격은 지도 위의 점으로 나타나고, 사망자는 숫자로 집계된다. 어느 순간부터 나는 그 숫자를 ‘크다’ 혹은 ‘작다’로 판단하고 있었다. 그 안에 개별 얼굴이 있었다는 사실을 자주 잊은 채.

<인간 없는 전쟁>은 바로 그 망각의 과정을 문제 삼는다. 전쟁이 인간의 손에서 멀어질수록, 전쟁은 우리 감각에서도 멀어진다. 잔혹함은 사라지는 것이 아니라, 보이지 않게 될 뿐이다.

피를 흘리지 않고도 승리하는 전쟁에서 흘리지 않은 피는 아군의 피일 뿐, 피 흘리지 않은 패배라는 말이 성립될 수 있는가? 패배자는 피를 흘릴 것이다. AI와 무인 무기들은 공격을 당해 부서지고, 그 피해는 숫자로 환원되겠지만, 공격당한 인간들은 피를 흘릴 것이다.

전쟁의 수치화와 더불어, AI 무인 무기 보급은 전쟁을 개시하는 문턱 자체를 낮출 수도 있다. 282쪽.

정부는 공식적인 '전쟁 선포' 없이도 드론 공습 등의 형태로 무력을 행사하기 용이해졌다. 이는 의회나 국민의 충분한 숙의 과정을 거치지 않고 분쟁에 휘말릴 위험성을 높인다. 283쪽.


통제할 수 있다는 믿음의 위험

후반부에서 저자는 ‘통제 가능한 AI 전쟁’이라는 개념 자체에 의문을 제기한다. 인간이 언제든 개입할 수 있다는 믿음, 긴급 정지 버튼이 있다는 안도감은 과연 현실적인가. 속도와 규모가 인간의 판단 능력을 초과하는 순간, 통제는 형식적인 절차로 남을 가능성이 크다.

얼마 전 기사에서 접했던 스토리가 이 책에도 들어있다. "AI가 명령을 거부할 때, 통제권을 가져올 수 있을까"라는 제목아래 놀랄만한 이야기를 소개한다.

인간이 조종하는 AI가 표적을 파괴할 때마다 높은 점수를 받았는데, 인간이 공격중지를 명령하면 더이상 점수를 받을 수 없다는 것을 알아챘다. AI는 임무를 방해하는 장애물을 제거하기로 했다. 그 방해자가 무엇이겠는가? 인간이다. 시뮬레이션에서 AI는 명령자를 공격했다. 놀란 개발자가 조종사를 죽이면 감점하는 규칙을 세웠다. 그것으로 끝일까? 아니다. AI는 조종자 대신 통신탑을 파괴했다. 우리가 그냥 지나칠 수 없는 내용이다.

어디까지가 진실인지는 알 수 없지만 이 사건이 던진 질문의 무게는 너무나 무거웠다. 우리는 정말로 AI를 통제할 수 있을까? AI가 역으로 우리를 통제하려 들 때 우리의 대응 방안은 충분할까? ---AI 전쟁 기술의 발전이 가속화되는 지금, 우리는 새로운 공포와 마주하고 있다. 바로 통제권 상실이다. 290쪽.

이 대목에서 나는 묘한 불안을 느꼈다. 우리는 이미 여러 영역에서 알고리즘의 추천을 ‘신뢰’라는 이름으로 받아들이고 있다. 길을 찾을 때, 뉴스를 볼 때, 소비를 결정할 때. 그렇다면 생사의 문제 앞에서도 우리는 과연 다를 수 있을까.

AI가 틀릴 가능성을 알면서도, 인간은 그 판단을 따르는 쪽을 선택한다. 왜냐하면 그것이 더 빠르고, 덜 고통스럽고, 덜 책임을 요구하기 때문이다.


책의 뒷 부분은 의외로 절망적이지 않다. 저자는 기술을 되돌릴 수 없다는 사실을 인정하면서도, 인간의 역할이 완전히 사라지지는 않는다고 말한다. 다만 그 역할은 싸우는 존재가 아니라, 멈추게 하는 존재에 가깝다.

무엇을 만들 수 있는가보다, 무엇을 만들어서는 안 되는가를 묻는 일. 무엇이 가능해졌는가보다, 어디까지 허용할 것인가를 정하는 일. 그것이 인간에게 남은 자리라는 것이다.

AI폭주를 막아보려는 의도로 세계적 인사 200여명이 모여 "AI레드라인 선언"을 발표했다. AI계의 대부인 제프리 힌턴을 비롯하여 AI 개발 최전선의 리더들이 총출동했다. 2025년 9월 유엔총회에 맞춰 선언을 한 것이다.

자율살상무기, AI를 활용한 대규모 감시, 사람 행세를 하며 인간을 속이는 AI 챗봇의 금지등 대중이 공감할 만한 항목들이 제안되었다. 인간의 활용 방식을 따지기 이전에 AI의 행동 자체에 제동을 거는 방안도 다수 포함되었다. AI가 통제 없이 사이버 공격을 퍼붓는 것을 금지하고, 인간 승인 없이 스스로 복제하거나 성능을 향상하지 못하게 하며, 시스템에 문제가 생겼을 때 즉각 종료할 수 있게끔 설계하자는 내용이 포함되었다. 305쪽.

이 부분을 읽으면 괜히 크게 걱정할 필요는 없을 것 같다. 안심해도 될 것 같은, 그러나 안심이 얼마나 큰 착각인지 현실적인 문제에 부딪혀 곧 깨닫게 된다. 정렬과 추적관리와 인간 감독의 방어선이 AI를 통제할 수 있을까? 작가는 이보다 더 근본적인 질문을 한다.


누구를 위한 AI인가?

서양 철학 책 몇 권을 읽으면서 느끼는 점은 동양과 서양의 생각하는 방법이 근본적으로 다르다는 것이다. 우리는 '고전' '인문학' '철학'에 대한 중요성을 의식하며 대부분이 서양의 개념과 이론을 탐구한다. 한글전용 시기를 지나며 자연히 동양사상과 동양철학에 대한 거리를 멀리하게 되었다. 동서양의 간격을 느낄 겨를조차 없어졌다고나 할까. 동서양의 사상과 개념이 다른 것이 AI시대에 어떤 영향을 끼칠까?

AI는 데이터로 학습한다.

LLM을 학습시키는 데이터 대부분은 영어권 인터넷에서 나온다. 결과적으로 AI는 서구의 관점, 특히 영어권의 가치관, 그 중에서도 온라인상에 목소리를 많이 내는 계층의 시각을 반영한다. 328쪽.

지금 AI는 소수의 기업과 국가에 집중되어 있다. 오픈AI, 구글, 메타, 엔트로픽. 이들이 AI의 미래를 결정한다. 그들이 정한 정렬 기준, 그들이 선택하 안전 프로토콜, 그들이 우선시하는 가치가 전 세계 수십억 사람들의 삶에 영향을 미친다. 330쪽

이 책에서는 AI 윤리학자 팀닛 게브루(Timnit Gebru)의 말을 빌어 문제점을 지적한다.

AI는 자본주의 엘리트들이 부를 공고히 하고 새로운 시장을 장악하며, 데이터와 이익을 추구하기 위해 인간의 사적 영역까지 멋대로 침투하는 강력한 도구다. 329쪽 (Perrigo, Billy, <Time> 2022. 1.18. 인용)

이쯤에 이르면 "누구를 위한 AI인가?"라는 생각의 늪에 빠지게 된다. 공포감에 휩싸인다. 그러나 책은 독자를 절망에 빠드린 채 끝나지 않는다. 한 줄기 희망의 빛을 내비친다. 저자를 믿어보자. 영화 <인터스텔라>의 명대사로 우리를 위로하고 희망을 준다.

"우리는 답을 찾을 것이다. 언제나 그랬듯이." 339쪽.


책을 덮으며 나는 처음으로 돌아갔다. 1938년 9월 30일, 체임벌린이 ‘우리 시대의 평화’를 선언하던 그 순간으로.

인간은 늘 기술과 협정, 합리적 계산이 전쟁을 막아줄 것이라 믿어왔다. 그러나 전쟁은 언제나 다른 모습으로 돌아왔다. <인간 없는 전쟁>은 말한다. 이번에는 인간이 사라진 모습으로 돌아올지도 모른다고.

이 책이 무서운 이유는, 미래를 예언해서가 아니다. 이미 시작된 현재를 차분하게 보여주기 때문이다. 전쟁은 더 이상 먼 나라의 이야기가 아니다. 우리의 기술, 우리의 선택, 우리의 무관심 속에서 조용히 형태를 바꾸고 있다. 전쟁에는 점점 인간의 얼굴이 없다.


<인간 없는 전쟁>을 읽으며 가장 오래 남는 감정은 공포보다도 기묘한 허전함이다. 인간이 사라진 전쟁은 잔혹함마저 탈색된 풍경을 만든다. 분노도 없고, 증오도 없으며, 영웅도 없다. 남는 것은 계산과 실행, 그리고 결과뿐이다.

이 책은 독자에게 명확한 해답을 주지 않는다. 대신 질문을 남긴다. 우리는 과연 어떤 전쟁을 더 위험하다고 느껴야 하는가. 피로 물든 전쟁인가, 아니면 감정이 제거된 전쟁인가.

브런치에서 이 책을 소개한다는 것은, 최신 기술 담론을 정리하는 일이 아니라 이미 시작된 변화 앞에서 독자의 감각을 다시 깨우는 일에 가깝다. <인간 없는 전쟁>은 읽고 나서 덮을 수 있는 책이 아니라, 덮은 뒤에도 계속 질문을 남기는 책이다.


최재운

KAIST 산업및시스템공학과에서 학사 석사 박사 학위를 취득했다. AI연구자가 된 저자는 드론과 알고리즘이 전쟁을 근본적으로 재편하는 광경을 목격하면서 문제의식을 느끼고, 평생의 관심사와 전문 분야가 교차하는 지점에서 이 책을 썼다.



<인간 없는 전쟁>리뷰를 쓰고있는 동안 브런치에서 AI책임 관련 글을 만났다. 함께 읽으면 좋을 것 같아 이곳에 소개한다. 버드나무님의 브런치다.

https://brunch.co.kr/@imccor/768


keyword
매거진의 이전글채수아 <사람을 사랑하는 일>