brunch

라벤더: 선택된 의존, 포기된 통제(1)

전장의 지배자가 되어버린 인공지능

by hyyenn

https://www.972mag.com/lavender-ai-israeli-army-gaza/


지난 3일, 이스라엘 독립 언론 ‘+972 매거진’은 히브리어 언론 ‘Local Call’과 함께 이스라엘 국방군(Israeli Defense Force, IDF)이 가자 지구(Gaza Strip) 내 잠재적 표적을 식별하기 위해 개발하고 사용해 온 인공지능 기반 표적 시스템인 ‘라벤더(Lavender)’를 공개하였다. 해당 시스템은 하마스(Hamas) 및 팔레스타인 이슬라믹 지하드(Palestinian Islamic Jihad, PIJ)의 특성을 학습 데이터를 통해 훈련 받은 후, 가자 지구의 대규모 감시 네트워크에서 수집된 데이터를 이용해 무장 세력과 유사한 특성을 지닌 사람들을 식별한다. 식별된 개인들은 곧장 ‘킬 리스트(kill list)’에 추가되며, 무장 세력과 높은 유사성이 있다고 판단되면 잠재적 암살 대상이 된다.


라벤더는 초기 구현 단계에서 광범위하게 킬 리스트를 생성하였으며, 이 목록은 최소한의 인적 검토 만을 거쳐 하위 요원들(junior operatives)까지도 포함시켰고, 나이와 계급도 가려지지 않았다. 게다가 목록에 포함된 대상 중 10%가 무장 세력이 아닌 민간인임에도 불구하고 공격이 강행된 것으로 밝혀졌다. 라벤더의 작업 과정에서 인간의 역할은 식별된 표적을 확인하고, 폭격 승인까지 대략 20초의 짧은 시간에 불과했다. 그 마저도 대상의 성별을 확인하는 수준에 그쳤다. 이는 하마스와 PIJ의 군대에 여성이 없기 때문이다. 이스라엘의 한 정보 제공자는 라벤더의 표적 식별 과정에서 인간은 단지 폭격을 승인하는 ‘고무 도장(rubber stamp)’의 역할을 할 뿐이라고 증언하였다.


라벤더가 생성한 표적에 대한 다음 단계는 공격할 위치를 식별하는 것이다. 익명의 이스라엘 정보 장교에 의하면 “하마스 요원이 군사 활동에 참여하고 있을 때보다, 가족들과 함께 있는 집에 있을 때 표적에 대한 폭격이 수월”하다. 따라서 표적이 집으로 돌아가는 순간을 실시간으로 파악하기 위해 추가적인 자동 소프트웨어가 개발되었다. 해당 프로그램은 수천 명의 개인들을 동시에 추적하고, 그들이 집에 있는 시간을 식별하며, 표적 담당관에게 자동 경보를 보내고, 이 후 폭격을 가하도록 표시한다. 이때 공개된 또 다른 인공지능 위치 추적 시스템이 바로 ‘Where’s Daddy?’이다.


2023년 12월, CNN 보도에 따르면, 이스라엘 공군이 가자 지구에서 실시한 군사 작전 중 사용된 탄약의 약 45%가 유도 기능이 결여된 재래식 폭탄(dumb bomb)임이 드러났다. 이러한 재래식 폭탄은 유도 폭탄에 비해 훨씬 더 큰 부수적 피해를 야기할 가능성이 높음에도 불구하고, 높은 정밀성을 자랑하는 고가의 무기 사용을 절제하기 위해 선택되었다고 알려졌다. 이러한 상황을 반영하여 공격에 대한 부수적인 피해를 계산했을 때, 하위 요원 1명 당 15-20명의 민간인 사살이 허용되었으며, 고위 간부의 경우에는 사령관 1명을 암살할 때 민간인 100명 이상의 피해도 여러 차례 승인되었다.


“처음에 우리는 부수적인 피해를 거의 고려하지 않고 공격했습니다.” 지난해 10월 7일 하마스의 이스라엘 기습 공격 이후 첫 주에 대한 장교의 증언이다. 이스라엘 군의 폭격으로 인한 부수적 피해의 비율은 미국이 이라크, 시리아, 아프가니스탄에서 전개한 전쟁과 비교해도 유례를 찾기 어려울 만큼 높게 나타났다. 전쟁 초기, 이스라엘 군의 대규모 폭격은 주로 첫째 또는 둘째 주에 집중되었으며, 부분적인 미국의 압력과 폭탄 낭비를 피하려는 군수 경제적 고려로 인해 현재는 중단된 상태이다.


이전 가자 지구 전쟁에서 이스라엘 정보기관은 폭격 후 표적의 사망 여부와 민간인 피해 정도를 확인하기 위해 폭격 피해 평가(Bomb Damage Assessment, BDA) 절차를 시행해왔다. 그러나 최근 하마스 전쟁에서는 해당 절차가 시간 절약을 위해 폐지된 것으로 나타났다. 그러나 실제 내부 상황에 대한 증언에 따르면, 인공지능이 경보를 발한 표적과 실제 폭격 간의 시간차로 인해 목표물을 제외한 가족 전체가 사망하는 경우가 잦았다. 군은 이러한 오류 가능성을 사전에 인지하고 있었음에도 불구하고, 인공지능을 통한 부정확한 모델을 채택했다. 소식통에 따르면 이는 표적을 더 빠르고, 더 효과적으로 제거할 수 있는 방법이었기 때문이다.


하지만 이스라엘 국방부는 이 모든 사실을 부정하였다.






keyword
작가의 이전글당파적인 얘기는 하고 싶지 않았습니다만, (2)