brunch

킬러 드론 인류종말의 시작인가?


“킬러 드론 인류종말의 시작인가?

인간 없는 살상기계가 열어-젖히는 전장의 내일”


글로벌연합대학교 버지니아대학교

인공지능융합연구소장 이현우 교수



‘완전 자율화’의 시대가 정말 코앞인가? 지난 4월 28일, 독일 드론 스타트업 스타크(Stark) 의 필립 록우드 CEO는 파이낸셜 타임스 인터뷰에서 “사람이 방아쇠를 당기지 않아도 스스로 목표를 탐지-식별-공격하는 드론이 기술적으로 이미 준비를 마쳤다”고 선언했다. 스타크가 선보인 OWE-V 기종은 수직 발사 후 최대 100 km 밖까지 비행해 표적을 타격하며, 레이더와 교전체계를 실시간으로 회피할 수 있는 온보드 AI 를 탑재했다. 현재는 ‘모든 결정 과정을 인간에게 통보하는 절차’를 갖췄지만, “기술적으로는 인간 통제를 제거해도 작동 가능하다”는 것이 록우드의 설명이다.


Financial Times 이 발언은 러시아-우크라이나 전쟁이 드론 혁신의 시험장이 되면서, 서방-비서방 모두가 ‘킬러 드론’ 개발 경쟁에 뛰어들고 있다는 현실을 선명히 비춘다. 미국 안두릴(Anduril)·터키 바이카르(Baykar)·우크라이나 토비아(ToBIA) 등도 유사 플랫폼을 속속 내놓으며, 이미 전투·공격·의료후송·기뢰살포 등 임무 영역이 확장 중이다.


2 윤리·법·인권이 맞닥뜨린 ‘무인의 딜레마’ 의미 있는 인간 통제(MHC)의 불투명성 유엔 재래식무기협약(CCW) 산하 국가전문가그룹(GGE)은 2019년 이후 ‘자율무기 원칙’ 논의를 이어왔지만, 2025년 5월 예정된 비공식 협의에서도 “법적 구속력이 있는 조약”에 합의할 가능성은 미지수다. Digital Watch Observatory EU 의회 역시 “치명적 자율무기(LAWS) 전면 금지를 지지”한다는 결의안을 지난 4월 2일 채택했으나, 구체적 입법으로는 이어지지 못했다. 유럽 의회 국가 책임과 ‘블랙박스’ 알고리즘 입증 책임이 흐려지면, 민간인 피해 발생 시 ‘누가’ 국제인도법(IHL) 위반 책임을 질지 불분명하다. HRW는 최신 보고서에서 “킬러 드론은 인간의 생명권·평등권 침해 위험을 내재하며, 설계 단계부터 국제인권법(IHRL)·투명성 의무를 명시해야 한다”고 경고했다. 휴먼라이츠워치 확산-억제 패러독스 서방이 윤리적 우려로 사용을 자제하더라도 러시아·중국·이란 등은 “비대칭 전력 극대화 수단”으로 제한 없이 채택할 공산이 크다. 따라서 ‘선제적 금지’와 ‘억제력 상실’ 사이의 간극이 커지고 있다.


전략·작전-기술 지형이 어떻게 바뀌는가 변화 축전통 무기체계킬러 드론 도입 후 예상 시나리오 속도(Tempo)명령-조준-발사 → 분 단위‘탐지-식별-결심’이 초 단위 자동 순환. 전술적 OODA 루프 붕괴 전장 범위전선 중심저가·대량 드론이 후방·도시·해상까지 다중 레이어 침투 비용 구조고가·소량(전투기, 미사일)대량-분산 투사 전략: 한 대 손실 비용 ↑↓ 방어·대응패트리어트·아이언돔 등 고가 요격AI 기반 스워밍 방패, 레이저·전자전(ECM) 시스템 필요 우크라이나군 은 이미 2025년 내 15,000대 로봇 플랫폼 전면 배치를 목표로 삼았다. 이에 맞서 러시아는 GPS 재머·레이저 요격기술을 확충 중이다. 전술 현장은 ‘드론 vs 안티-드론’ 기술의 상호 진화(arms race) 국면에 진입했다.


한국과 국제사회가 취할 다섯 가지 행동 과제 규범 공백 메우기 → ‘서울 이니셔티브’ 제안 GGE·UNGA 논의에 한국이 중견규범국 으로서 ‘MHC 법제 모델’ 초안을 제출, 다자 규범 형성 촉진. ‘AI-무기 안전성 검증소’ 설립 자율무기 핵심 알고리즘을 사전·사후 검증해 안전성·투명성을 확보하는 국제 공용 테스트베드 운영. 국방-산업의 ‘쌍방향 컷-아웃’ 살상 자율무기 R&D 투자를 제한하되, 역광-방어(Shield-Tech) 분야는 적극 육성(안티-드론 레이저, 전자전, 사이버 방어). 윤리-법 융합 교육 강화 군사·AI 공학·국제법을 아우르는 통합 커리큘럼 도입으로, ‘엔지니어-장교-법률가’ 협업 체계 구축. 시민사회-학계와의 투명 거버넌스 개발·배치 전 단계에서 공개 검증·심의 절차를 의무화해 사회적 신뢰 확보. 맺으며 ‘킬러 드론’은 거부할 수 없는 기술 진화이자 제어해야 할 윤리적 도전이다. 국제사회가 지금 행동하지 않는다면, 인간 없는 살상 결정 은 단순한 경고가 아닌 ‘새로운 표준’이 될 수 있다. 기술 선도·규범 공백·안보 현실 사이에서 우리는 어떤 선택을 할 것인가? “무기를 만드는 속도보다 규칙을 만드는 속도가 빨라야 한다”는 교훈이 절실한 시점이다.


지난 4월 28일, 독일 드론 스타트업 스타크(Stark)의 필립 록우드 CEO가 파이낸셜 타임스 인터뷰에서 “사람의 승인 없이도 스스로 목표를 찾아 타격할 수 있는 공격 드론이 이제 기술적으로 준비를 마쳤다”는 발언을 내놓았다. 스타크가 공개한 신형 ‘OWE-V’는 수직 발사 이후 100 km 밖 표적까지 자율 비행하며, 레이더 네트워크와 교전 전파를 실시간으로 분석해 회피 궤적을 재구성한다. 록우드는 “현재는 모든 결정을 인간에게 통보하도록 설계했지만, 원한다면 그 절차를 삭제해도 문제없이 작동한다”고 밝혔고, 이는 윤리적 제동장치가 사라진 ‘완전 자율 킬러 드론’ 시대가 문턱을 넘었다는 신호탄으로 해석됐다.


우크라이나-러시아 전쟁은 이 기술 전환의 가속 페달을 밟고 있다. 미국 안두릴, 터키 바이카르, 우크라이나 토비아를 비롯한 국가·기업들이 유사 플랫폼을 연이어 내놓으면서, 드론의 임무는 정찰·공격은 물론 의료후송과 기뢰 살포 같은 영역까지 확장되고 있다. 특히 우크라이나 국방부는 2025년 한 해에만 1만 5,000대의 전투 로봇 플랫폼을 배치하겠다는 계획을 공표했고, 러시아는 GPS 재밍·레이저 요격체계를 증설하며 맞불을 놓고 있다. 따라서 현장은 ‘드론 대 안티-드론’의 첨단 기술 진화 경주로 빠르게 재편되고 있다.


문제는 기술 속도에 비해 규범과 법이 현저히 뒤처져 있다는 점이다. 유엔 재래식무기협약(CCW) 산하 국가전문가그룹(GGE)은 2019년부터 ‘치명적 자율무기(LAWS)’ 원칙을 논의해 왔지만, 올해 5월로 예정된 비공식 협의에서도 “구속력 있는 조약”을 도출할 전망은 밝지 않다. 유럽연합(EU) 의회는 지난 4월 초 “의미 있는 인간 통제(MHC)가 없는 무기를 전면 금지해야 한다”는 결의안을 재차 통과시켰으나, 구체적 입법·집행 단계는 아직 공백이다. 이처럼 국제 규범 형성이 지연되는 사이, 윤리 기준이 느슨한 국가들이 무인 치명 무기를 선점할 가능성은 더욱 커지고 있다.


여기에 ‘블랙박스 알고리즘’ 문제까지 겹친다. 사고가 발생해도 결정 경로를 추적하기 어렵기 때문에, 민간인 피해가 발생했을 때 국가·개발사·운용자 중 누가 국제인도법(IHL) 책임을 질지 불투명하다. 휴먼라이츠워치(HRW)는 지난 4월 28일 보고서에서 “킬러 드론은 전시·평시를 막론하고 인권과 평등권을 침해할 위험을 내재한다”며 “설계 단계에서부터 투명성과 감사 기능을 의무화해야 한다”는 권고를 내놨다. 하지만 규범과 감시기관이 없는 상태에서 기술의 확산 속도는 매우 가파르다.


결국 무대는 ‘확산-억제 패러독스’로 귀결된다. 서방이 윤리적 우려로 사용을 미루는 사이, 러시아·중국·이란 등은 비대칭 전력 극대화를 위해 킬러 드론을 제한 없이 도입할 공산이 크다. 윤리·법적 제동장치를 잃은 채 살상 결정권이 알고리즘에 넘겨지는 미래는, 예견이 아닌 현실로 다가오고 있는 셈이다.

이러한 격차를 메우기 위해 한국과 국제사회는 다섯 가지 행동 과제를 서둘러야 한다. 첫째, 한국이 ‘서울 이니셔티브’를 주도해 GGE와 UN 총회 무대에서 MHC 법제 모델을 발의함으로써 규범 공백을 축소해야 한다. 둘째, 자율무기 핵심 알고리즘을 사전·사후 검증할 국제 공용 테스트베드, 즉 ‘AI-무기 안전성 검증소’를 설립해 투명성과 신뢰를 확보해야 한다. 셋째, 살상 자율무기에 대한 R&D 투자는 제한하되, 레이저 요격, 전자전, 사이버 방어와 같은 ‘역광-방어(Shield-Tech)’ 기술을 집중 육성하여 방패 역량을 확충해야 한다. 넷째, 군사·AI 공학·국제법을 아우르는 융합 교육을 통해 엔지니어, 장교, 법률가가 협업하는 새 직군을 길러내야 한다. 마지막으로, 시민사회와 학계가 참여하는 투명한 거버넌스를 도입해 개발과 배치의 모든 단계에서 공개 검증과 심의를 보장해야 한다.


결론적으로 전쟁 역사는 무기의 발명과 통제 규칙이 속도 경쟁을 벌여온 연속이었다. ‘칼보다 먼저 법’이라는 말은 언제나 거꾸로 적용되어 왔다. 그러나 인간의 생사 결정을 알고리즘에 위임하는 순간, 그 역전 현상은 전례 없는 윤리적 공백을 야기할 수 있다. 우리가 지금 속도를 내야 하는 건 무기가 아닌 규칙이다. 기술 선도와 안보 현실, 그리고 보편적 인권이라는 세 축 사이에 균형을 맞추지 못하면, ‘인간 없는 살상 결정’은 곧 새로운 표준이 될 것이다. 국제사회가 지금 당장 이 문턱에서 멈춰 서야 하는 이유가 여기에 있다.

keyword
매거진의 이전글"국산 AI 검색엔진 '오오에이아이', 판을 뒤흔들다