AI 무기가 전쟁에 대한 심리적 부담을 낮춘다면?
2026년 2월 28일, 미국은 이란을 공습했습니다. 이 공습에서 주목할 점은 군대가 인공지능을 군사적으로 활용했다는 점입니다. 월스트리트 저널에 따르면 미군 사령부가 AI 모델인 "클로드"를 활용해 위성 및 드론 영상, 통신 감청 기록 등 방대한 데이터를 분석하여 공격 포인트를 찾는 일을 했다고 합니다. 아직까지는 정보 분석에 활용하는 단계이지만, 점점 더 발전하는 인공지능이 군사 무기에 응용된다면 그 무기나 군사 시스템은 어떤 모습일까요?
AI 군사 무기에 관한 연구에서 많이 쓰는 단어는 "자율 무기 시스템", "치명적 자율 무기 시스템", "킬러 로봇" 등이 있습니다. 이 글에서 필자는 편의상 "AI 무기"라고 간단히 지칭하는 경우가 많을 것이고, 특히 주목할 점은 무기에 "자율"이란 개념이 붙는 것에 관해서입니다. "자율 무기 시스템"이라는 말에서 AI 기술이 적용된 무기 기술이 향하는 발전 방향은 무기가 스스로 목표 설정, 조준, 제거 등 군사적 판단 일체를 무기 스스로 수행하는 것임을 알 수 있습니다.
무기 기술이 발달한다는 것은 두려운 일이고, 실제로 활용되는 모습을 보니 직관적으로는 AI 무기 개발과 활용을 막아야 할 것 같습니다. 실제로 인공지능 무기를 국제법 차원에서 금지해야 한다는 학자들의 목소리도 많습니다(관련 뉴스: 전쟁터 파고든 AI…과학자들 "자율살상무기 국제 금지 시급" - 동아사이언스). 그러나 어떤 이들은 "AI 무기에 관한 윤리적 개발"이란 관점을 제시하며 AI 무기 개발과 활용 금지에 반대합니다. 무기를 윤리적으로 개발한다는 표현은 특이하게 보입니다. "윤리적인 강도질"이란 말이 있다면 그 자체로 형용모순처럼 보이듯, 무기 개발을 윤리적으로 한다는 것 또한 형용모순으로 보입니다. 어떻게 저런 주장이 성립할 수 있을까요? 이들은 구체적으로 다음과 같은 주장을 합니다.
I. AI 무기의 윤리적 개발을 지지하는 측의 주장
1. 개발 동기에 관한 정당화: 안전한 무기
' 인간의 사망 사건 원인 중 자동차 사고는 전쟁에 필적한다. 자율 주행 자동차 산업의 개발 동기 중 하나는 자동차를 더 안전하게 만드는 것이다. AI 군사 무기도 동일한 동기를 가진다. 예를 들면, AI가 국제적 보호 표식(예를 들어 적십자)을 인식하고 공격을 중단할 능력을 가진다면 이는 안전한 무기를 만드는 것이다.'
- "The case for ethical AI in the military", Jason Scholz and Jai Galliott
2. AI 무기 개발 전면 금지의 실효성에 대한 의문
(1) 'AI 무기가 아니더라도 과거부터 이미 생화학 무기, 핵무기, 혹은 소이탄이나 백린탄 등을 금지하는 유엔재래식 무기협약 등 이런저런 무기 보유와 사용을 금지해 온 역사가 있다. 비록 이런 조치가 완전히 성공적인 것은 아니었고, 인도, 파키스탄, 이스라엘, 북한 등은 핵무기를 개발했다. 그래도 전체적으로 보면 핵무기 개발 억제는 성공한 편이라고 볼 수 있다. 이것이 가능했던 이유는 무기 생산에 필요한 자원을 획득하는 것에 물리적 통제를 가할 수 있었기 때문이다. 그러나 AI 무기의 경우 저러한 금지 조치가 성공적일 수 있을지 의문이다. 왜냐하면 AI 무기 개발에는 핵물질 같은 희귀한 자원이 필요한 것이 아니라 코드가 있으면 되기 때문이다. 또한 어떤 AI를 "군사용 AI"라고 특별히 식별해 낼 수도 없다. AI를 어디에 적용하느냐에 따라 자율주행 자동차가 되기도 하고 군사 무기가 되기도 하는 것일 뿐이다. 따라서 군사적 AI 무기를 골라내서 금지하는 것은 불가능하다.'
'따라서, AI 무기를 전면적으로 금지하기보다는 사람에 대한 우발적 공격을 줄이고, 비전투원에 대한 비의도적 공격을 줄이며, 필요 이상의 화력을 퍼붓지 않도록 하여 부수적 피해를 줄이고, 항복한 사람들의 생명을 구할 수 있는 윤리적인 AI 무기를 개발해야 한다.'
- "The case for ethical AI in the military", Jason Scholz and Jai Galliott
(2) '자율 무기 시스템(AWS)을 금지하자는 금지주의자들의 주요 논거 중 하나는 그러한 무기가 독재정권의 손에 들어갔을 때, 사람들을 억압하는 강력한 수단이 된다는 것이다. 그러나 독재자에게 CCTV 카메라를 가지지 못하도록 할 방법이 없듯이, AWS를 보유하지 못하게 할 현실적인 방법이 없다. AI 무기는 낙후한 전체주의 국가에서도 쉽게 대량 생산할 수 있고, 특히 강대국의 지원을 받는 독재국가는 금지 조치로 통제하기 어렵다. 예를 들어 북한이 세계적 제재에도 불구하고 결국 핵무기를 가진 것처럼 말이다.'
- "Stopping killer robot proliferation to tyrants and terrorists: Why a global ban is neither necessary nor sufficient", Maciej Zając
3. AI 무기 사용 측의 이점: 안전한 임무 수행
'지뢰 제거나 정찰 임무를 로봇이 수행하면, 인간 군인은 지뢰가 없는 영역 혹은 적군이 없는 지역을 파악하여 안전하게 이동할 수 있을 것이다.'
- "Building a better warbot: Ethical Issues in the design of unmanned systems for military applications", Robert Sparrow
II. 안전한 무기, 전쟁 억제력은?
저러한 주장들은 일견 그럴듯해 보입니다. 그러나 한편으론 영화의 한 장면이 떠올랐습니다. 영화 "불한당"은 범죄 누아르물인데, 그 영화에서 범죄조직의 간부가 이런 대사를 말합니다.
"죄의식이라는 게 작업방식을 많이 발전시켰어. 석기시대 때는 돌로 사람을 찍어 죽였을 거 아니냐. 청동기, 철기 때는 칼, 도끼로 찌르고 때리고. 근데 요즘에는 총으로 죽이거든. 총이라는 게 죄의식을 줄여줘. 아무래도 이게 거리가 있다 보니까."
저 대사를 하는 간부는 죽은 생선 눈도 제대로 못 보는 유약한 심성이지만, 부하를 시켜 총으로 살인하는 것에 거리낌 없는 모습을 보여줍니다. AI 무기에 관해서도 생각해 봅시다. 안전한 작전 수행, 적절한 수준의 화력을 퍼부을 수 있는 계산 능력, 운용하는 사람이 물리적·심리적 외상을 입지 않을 수 있는 AI 무기는 전쟁에 관한 사람의 죄의식이나 심리적 부담을 줄이지 않을까요? AI 무기를 운용할 수 있는 사람이 다른 사람에 비해 무기 사용 결정을 더 쉽게 하는지에 관한 직접적인 연구는 없지만, 다른 연구를 통해 간접적인 추론을 해보았습니다.
AI가 운용하는 무기와 사람이 운용하는 무기에 대한 사람의 태도를 탐구한 어떤 연구 결과에 따르면, 사람들은 자율 무기 시스템(AWS)이 인간보다 더 정확하고, 덜 위험하고, 더 효율적이라고 믿을 때 AWS를 더 선호하는 태도를 보인다고 합니다. 이 연구는 자율 무기 시스템(AWS)이 인간이 운용하는 무기보다 표적 오인이나 민간인 폭격 가능성을 줄일 때, 인간처럼 감정에 휘둘리지 않고 임무를 수행할 수 있는 모습 등을 제시하여 AI 무기에 대한 사람의 태도가 어떻게 변하는지 조사했습니다. 그 결과 사람들은 AI 무기가 사람이 직접 운용하는 무기에 비해 민간인 오인 공격 가능성이 더 낮다는 점에 크게 반응했습니다. 또한 AI 무기에 대해서 무기 사용의 책임 문제나 인간의 존엄성을 근거로 AI 무기에 반대하는 사람들의 태도도 조사한 결과, 그러한 사람들조차 AI 무기가 민간인 공격 가능성을 줄인다는 데이터를 접하면 AI 무기에 대한 반감이 줄어든다고 합니다.
(연구 출처 논문: "Algorithmic aversion? Experimental evidence on the elasticity of public attitudes to "Killer Robots"", Ondřej Rosendorf)
III. 전면 금지는 아니더라도 부분 금지의 필요성
지금까지의 논의들을 종합하자면, 제 생각엔 윤리적 AI 무기를 가진 인간은 이전에 비해 전쟁을 더 쉽게 결심할 것 같습니다. 그런데 윤리적 무기가 전쟁 피해를 줄인다 한들, 전쟁 피해는 비가역적이고 치명적 피해라는 점을 상기해야 합니다. 10만 명이 죽을 전쟁이 AI 무기 덕분에 1만 명의 사망으로 끝난다고 한들, 그 피해는 비가역적이고 치명적입니다. 그렇기 때문에 전쟁은 일어나지 않아야 하는데, AI 무기는 전쟁의 위험을 가볍게 여기게 할 위험이 있습니다.
따라서 윤리적 무기 개발론자들의 주장이 그럴듯하더라도, 제 생각엔 AI 무기에 대한 부분 금지 국제법이 만들어져야 한다고 생각합니다. 우리가 주목해야 할 것은 윤리적 무기가 전쟁 피해를 얼마만큼 줄이느냐가 아니라, 전쟁 결심의 문턱도 낮추는 것이 아닐지에 관한 의혹입니다. 그러므로 AI 무기 보유 금지는 어렵더라도 사용 금지에 대한 조약, 어디까지가 자동화 무기이고 어디부터 자율 무기 시스템인지 정밀한 정의를 내리기, AI 무기 사용자에 대한 제재 방안과 제재 수준 등을 국제 사회가 논의하는 것이 필요하다고 생각합니다.