인류를 위협하는 것은 AI인가?

총이 사람을 쏜 것인가?

by OOJOO

AI는 이제 개인의 생산성 도구나 기업의 사업 혁신을 넘어 정부의 국가 통제를 강화하고 국가간 경쟁에서 앞서기 위한 안보 자산이 되고 있다. 이미 전쟁에서 AI는 SF영화 속 킬러로봇의 실체는 아니지만, 제거할 표적을 추적하고 암살 정확도를 높이기 위한 시간, 장소, 타격 방법들을 시뮬레이션해서 제안해준다. 또한, 전쟁 승리를 위한 최적의 공격 시간과 침투 방법 등의 전략을 설계하는 참모본부로 작동한다. 우크라이나는 전쟁 데이터를 AI 학습 자산으로 축적해왔고, 2026년 1월에는 팔란티어와 함께 전투 데이터를 활용하는 ‘Dataroom’ 프로젝트를 시작했다. 2025년 8월 로이터 인터뷰에서 미하일로 페도로우는 우크라이나가 AI를 정찰과 패턴 인식, 장거리 드론 운용에 쓰고 있으며 전장에서 타격되는 러시아 표적의 80~90%가 드론으로 파괴된다고 말했다.


가자지구는 AI 전쟁의 더 불편한 얼굴을 보여준다. 로이터는 2024년 백악관이 이스라엘군의 ‘라벤더’ 사용 보도를 검토하고 있다고 전했다. 내부 관계자 증언을 토대로 라벤더가 한때 약 3만7000명을 잠재 표적으로 올렸고 내부 정확도는 90% 수준이어서 오인 가능성이 10% 안팎이었다고 보도했다. 그만큼 선량한 시민 피해가 예상될 수도 있다는 것이다. 그럼에도 2025년 AP는 이스라엘군의 마이크로소프트·오픈AI 사용이 급증했고 애저가 감청 정보의 전사·번역·검색을 맡아 군의 자체 표적 시스템과 교차 활용됐다고 전했다.


러시아-우크라이나 전쟁이나 이스라엘의 가자지구 공습이나 미국의 베네수엘라 마두로 대통령 압송 등에는 모두 AI가 한 역할을 했다. 우크라이나군은 팔란티어의 고담이라는 AI 플랫폼으로 전장의 데이터를 실시간 분석해 러시아군에 대응하고 있다. 이스라엘의 가자지구 공습에는 오인율이 10%나 넘어 자칫 불필요한 인명살상이 발생할 수 있음에도 라벤더라는 AI 타겟 탐지 시스템이 사용되었다. 이 라벤더는 마이크로소프트의 애저 기반으로 작동되는데 하마스는 보복으로 이스라엘 시내의 MS 건물을 폭격하기도 했다. 또한, 팔란티어 AIP를 사용해 표적을 선정하고 군사정보국이 수집한 방대한 정보를 분석해 표적을 추적하기도 한다. 미국의 베네수엘라 마두로 생포 작전과 이란 공습에는 앤스로픽의 AI 모델인 클로드가 사용되었다. 이렇게 이미 전쟁에 깊숙하게 들어온 AI의 성능은 전쟁의 성패를 가르기도 한다.


tempImagemxKAhd.heic 팔란티어의 고담을 이용한 군사적 목적으로의 사용 예시 화면


그런 와중에 2월27일 트럼프 대통령은 '연방 모든 기관은 앤스로픽의 기술 사용을 즉각 중단하라'는 글을 올렸다. 자국의 AI 기업을 국가 안보 공급망 위험으로 지정한 것이다. 미국 기업을 안보 위협으로 지정한 것은 사상 처음이다. 이어 오픈AI가 앤쓰로픽의 빈 자리를 채우는 계약을 체결할 계획이라고 밝혔다. 이에 앤스로픽은 공식 성명에서 자사가 끝까지 지키려 한 선이 '미국인 대상 대규모 감시와 완전 자율무기'라고 밝혔고 오픈AI는 미 국방부와의 계약 문구에 미국인 대상 국내 감시 금지와 인간 통제가 요구되는 경우 자율무기 직접 지휘 금지를 명시했다고 공개했다. 그런데도 3월 7일 로이터는 오픈AI 내부 고위 임원이 이 계약의 거버넌스 우려를 이유로 사임했다고 전했다. 논쟁의 본질은 AI를 국방에 쓰느냐가 아니라 누가 금지선을 정하느냐에 있다.

제네바에서는 2026년 현재 128개국이 치명적 자율무기체계(LAWS)에 관한 비구속 문안을 논의하고 있다지만, 로이터에 따르면 국제적으로 구속력 있는 세부 기준은 사실상 존재하지 않는다. 미국 국방부 지침 3000.09는 자율·반자율 무기에 대해 적절한 인간 판단, 법규 준수, 투명한 인간-기계 인터페이스, 엄격한 시험과 검증을 요구한다. 그러나 EU AI Act조차 2024년 발효 이후 군사·국방·국가안보 목적에만 쓰이는 AI는 적용 대상에서 제외한다고 명시한다. 민간 AI 규제는 빠르게 생기는데 군사용 AI는 가장 위험하면서도 종종 규제 바깥에 남아 있는 셈이다.

이제 우리 사회는 AI가 인류를 위협하느냐를 걱정하는 것이 아니라, 누가 무슨 데이터와 어떤 규칙으로 어느 선까지 AI에게 판단을 넘길 것인지를 고민해야 한다. 총이 사람을 쏘는 것이 아니라 사람이 총으로 사람을 쏘는 것처럼, AI는 총보다 훨씬 광범위하고 빠르게 인류를 멸할 수 있다. 핵폭탄보다 은밀하게 더 큰 규모의 피해를 야기할 수 있는 것이다. 우리 사회는 절대적인 AI를 사용하는 권력 집단에게 확인받아야 한다. 군과 정보기관의 AI 조달 계약은 최소한 사용 목적, AI에게 준 권한과 로그 등에 대한 정보 내역을 기록해 감시할 수 있어야 하고, AI를 이용한 시민 감시나 전쟁 등에서 AI가 접근 가능한 정보의 범위와 자율적으로 수행할 수 있는 내역을 검증받을 수 있어야 한다. 공급 기업도 “모델만 팔았다”는 말로 면책되지 않아야 하며 고위험 군사 사용처에는 독립 감사와 서비스 중단 의무가 따라야 한다. 국가를 위한 AI가 인간을 해치는 순간 그 국가는 강해지는 것이 아니라 정당성을 잃는다. 진짜 AI 강국은 더 강한 모델을 먼저 만든 나라가 아니라 더 강한 금지선과 책임 구조를 먼저 만든 나라다.


❍ 작가의 2026년 IT/AI 트렌드 전망서

https://www.yes24.com/product/goods/154580236


❍ 작가의 AI 리터러시를 정리한 사전

https://www.yes24.com/product/goods/147569979


작가의 이전글AI는 이미 왔다. 로봇의 모멘트는?