brunch

You can make anything
by writing

C.S.Lewis

by 최재운 Oct 18. 2023

AI 전쟁에서 책임은 누가 질 것인가?

본격적인 AI 전쟁 시대의 개막

전장에서 적 한 명을 죽이는 데 사용되는 총알의 개수는 몇 개일까?


연구 결과마다 차이는 있지만 대략 수 만 발의 총알이 발사되어야 한 명의 적군이 사망한다고 알려져 있다. 적군을 죽이는 데 총알이 많이 필요한 이유는 무엇일까? 병사들이 사람을 죽이기 꺼리기 때문이다. 정조준으로 적을 죽이는 병사는 극소수이다. 대부분은 총알을 마구 하늘로 갈기며 기도한다. 내가 사람을 죽이지 않도록 해달라고.


미국의 육군사관학교 심리학 교수를 역임한 군사심리학자 데이브 그로스먼(Dave Grossman)이 저술한 <살인의 심리학(On killing)>에 따르면 전쟁터의 군인들 대부분은 살인에 대한 죄책감 때문에 적이지만 차마 총을 겨눌 수 없어 총구를 대부분 하늘로 향한다. 2차 대전 당시 전투병들과 면담을 해 본 결과, 병사 중 15~20%만이 적을 향해 무기를 제대로 사용하였다. 다수는 허공에 총을 갈긴 것이다. 미국의 남북 전쟁 당시에도 비슷했다. 게티즈버그 전투 후 회수 된 소총 2만 7천 여정 중 2만 4천 여정이 장전이 된 상태였다. 다수의 군인들이 화약과 총알을 넣고도 쏘지 않은 것이다.


이러한 현상은 군대 훈련 기법의 변화를 가져온다. 대한민국의 남성이라면 누구나 한 번쯤 겪어본 사격 훈련. 갑자기 튀어 오르는 표적을 향해 즉각 사격하도록 훈련받는 현재의 군대 훈련 방식은 2차 대전 이후 등장하였다. 효율적인 무기 사용을 위해 군대가 도입한 훈련기법의 변화는 군인들이 '조건반사'적으로 총알을 발사할 수 있도록 만들었다. 갑자기 튀어 오르는 표적을 향해 즉각 사격하도록 훈련받은 군인은 전장에서도 죄책감을 느낄 겨를도 없이 조건 반사식으로 사격하게 된다.


무작위로 올라오는 표적을 사격하도록 훈련 (출처 : MBC 무한도전)


미군의 훈련 방식 변화는 병사들이 적에게 더 많은 총을 쏘게 하는 데 성공한다. 베트남전의 경우 참전 병사의 90%가 적을 향해 총을 발사하게 된다. 하지만 전쟁 후 피해는 막심했다. 바로 외상 후 스트레스 장애(PTSD)가 대량으로 발발하게 된 것이다. 전쟁을 마치고 돌아온 참전 병사에게는 당시 사회에 완연했던 반전 운동의 여파로 비난이 쏟아졌다. 사회의 외면과 사람을 죽였다는 죄책감은 다수의 병사들에게 PTSD를 가져오게 된다. 적을 향해 쏘는 총알의 숫자가 늘어난 만큼 정신적 피해 역시 늘어나게 되었다.




베트남전 참전 용사들은 직접 눈으로 마주한 적군을 사살한 데에 대한 죄책감을 평생 가지고 살게 되었다. 하지만 최근 전쟁에 참전하는 군인들은 다른 윤리적 딜레마에 마주하게 된다. 과거에는 내가 눈으로 마주하고 내가 판단을 해서 방아쇠를 당겼다면, 이제는 기계의 조언에 따라 방아쇠를 당기고 있다. 이로 인해 윤리적 판단 기준이 달라지고 있다.


걸프전 이후 첨단 무기들이 전장에 등장하기 시작했고, 인간이 아닌 기계들이 전장을 본격적으로 누비기 시작했다. 인간은 전장에 가지 않고도 기계의 센서와 레이더가 알려준 정보를 가지고 본부에서 버튼을 하나 누르는 것만으로 적군을 대량으로 살상할 수 있게 되었다. 아이러니하게도 인간이 느끼는 죄책감은 줄어들었지만 인간이 살상할 수 있는 범위는 확대되고 있다.


리치먼드 대학의 법학 교수인 레베카 크루토프(Rebecca Crootof)는 인간과 기계 무기 간의 책임성 문제에 대해 광범위한 연구를 진행하고 있다. 미묘하게 똑똑해진 기계에 현혹되지 않고 인간이 제대로 판단하기 위한 방안을 연구 중인 그는 "관찰 대상자가 화면의 빨간 점으로 표시된다면, 행복한 얼굴로 표시되는 것과는 무의식적인 차원에서 다른 영향을 미칠 것이다"라고 말하고 있다. 점점 현대전은 양심의 가책을 덜 느끼면서 손쉽게 적을 사살하도록 만들고 있다.


여기에 최근에는 인공지능이 가세했다. 기계와 인간의 윤리적 문제를 해결하는 것만으로도 벅찼는데 인공지능이 개입한 것이다. 인공지능의 전쟁터 등장으로 인해 윤리적인 문제 역시 달라지고 있다. 아래 영화 장면을 보자.



아이언맨의 인공지능 자비스(JARVIS)가 민간인과 테러범을 비전 인식(Vision Recognition)을 통해 구분하는 모습이다. 영화의 장면처럼 인공지능이 테러범만을 지목하여 방아쇠를 당길 것을 요구하고 있다고 가정해 보자. 인공지능의 조언에 따라 방아쇠를 당겼는데, 테러범으로 인식된 사람 중 민간인이 있었다면 누가 책임을 질 것인가? 인공지능 알고리즘을 만든 회사의 책임일까? 아니면 인공지능 판단에 따른 사람의 책임일까?


지능형 자율 무기, 인간의 개입 없이 인간을 공격하는 무기에 대한 우려는 하루 이틀 일이 아니다. 2023년 5월 UN은 특정 재래식 무기 금지협약의 당사국들 간의 논의를 통해 인공지능 기반의 무기를 사용하는 군대가 전쟁법을 반드시 지키도록 규제해야 한다는 점에 동의한 바 있다. 강제적인 규약은 아니지만, 죽음을 초래하는 전쟁 과정에서 인간이 최종 역할을 수행해야 한다는 점을 다수의 국가가 동의한 것이다.


인간의 생사여탈권을 기계가 결정하는 지능형 자율 무기는 아직 전장에 사용된 적이 없다는 것이 일반적인 인식이었다. 하지만 최근 러시아와 우크라이나 전쟁에서 인간의 개입 없이 인간을 공격한 드론이 나타난 것은 아닌지 하는 의심이 퍼지고 있다. 그와 관련해서는 지난 브런치 포스트에서 살펴본 바 있다.





인공지능이 전장의 무기로 활용될 가능성은 끊임없이 제기되고 있었다. 이스라엘의 방산회사 엘빗 시스템즈(Elbit Systems)가 개발한 '돌격형 소총' 조준경에는 600야드(약 549미터) 이상의 거리에서 '인간 표적 탐지'가 가능하고, 축구장 길이 거리에서 인간 표적 '식별'이 가능하다. 미국 국방부 역시 전쟁의 의사결정에 활용되는 킬 체인(kill chain)에 인공지능을 사용하는 것으로 알려져 있다.


그리고 현재진행형인 러시아 우크라이나 전쟁에서는 인공지능을 탑재한 드론이 맹활약하고 있다. 아직 인간이 드론을 조종해서 적을 공격하는 것으로 알려져 있지만, 일부 자폭 드론은 인간의 통제를 벗어나 스스로 공격을 한 것이 아닌지 의심을 받고 있다. 실제 전장에서 인공지능의 활약은 상상 이상이었다. 최근 이스라엘과 팔레스타인의 분쟁은 빠른 전쟁 트렌드의 변화를 실시간으로 확인할 수 있다. 아래 사진은 이스라엘 탱크의 모습이다. 기존 탱크와 차이점이 보이지 않는가? 드론의 공격을 방어하기 위해 탱크들이 우산인지 파라솔인지 모를 방어 도구를 쓰고 있는 모습을 볼 수 있다.


우산(?) 쓴 이스라엘 군 탱크 (출처 : 게티 이미지)


인류 역사상 벌어졌던 수많은 전쟁은 결과에 따라 책임을 지는 사람이 나타났었다. 전쟁을 일으킨 전범들은 국제법에 의해 처벌을 받았고, 전쟁을 일으킨 국가는 배상 책임을 지게 되었다. 그동안의 전쟁에서 벌어지는 모든 행동은 항상 특정 사람 누군가에 의한 것이라는 공감대가 형성이 되어있었다. 하지만 인공지능이 그 역할을 맡게 될 것으로 예상되면서 새로운 윤리관 확립이 절실해지고 있다.


앞서 예로 든 아이언맨 장면을 다시 보자. 아이언맨의 인공지능 자비스가 적으로 식별한 대상에 대한 발포 결정을 자비스가 하게 된다면 어떻게 될까? 앞서의 가정처럼 자비스가 테러범으로 설정해 사살한 사람이 무고한 민간인이었다면 그 책임은 누가 져야 할까?


기계가 인간의 생사에 관련된 새로운 역할을 맡을 때마다,
살인이 기계의 역할이 되고,
윤리가 수학적 공식으로 바뀌며,
책임은 더 추상적인 형태로 변하게 된다.

by Arthur Holland Michel, MIT Techology Review (2023.09)


이러한 방식으로 기계가, 그리고 인공지능이 나아가지 않도록 우리는 적정 선을 미리 생각해야 한다. 인공지능이 적당한 선을 넘지 않고, 인류가 최소한의 책임을 다할 수 있도록 사회적 공감대 합의 및 제도 마련이 시급하다. 이미 2023년 지구에서는 인공지능이 사람을 죽이고 있다.

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari