인공지능 무기, 효율과 윤리의 경계에서

by 리얼팔

어느 AI주제의 강연을 듣던 중 ‘인공지능을 무기에 적용하는 것은 충분한 당위성이 있다’는 말을 들었다. 나의 평소 생각과는 전혀 다른 주장 앞에서 적잖은 놀라움을 느꼈고, 왜 이런 말을 하는 것인지 그 배경과 이유에 대해 생각해 보게 되었다.

먼저 인공지능을 무기에 넣으면 무슨 일이 벌어지는지 부터 알아야 할것 같아 최근의 인공지능 무기 적용사례를 알아 보았다. 이스라엘의 모사드는 인공지능 드론을 활용해 이란 내 하마스 지도부를 정밀하게 제거했다. 드론에는 안면 정보가 탑재되어 있었고, 인공지능이 카메라로 대상을 식별해 정확히 표적만을 공격했다. 그 결과 지도부 대부분이 제거되어 조직은 사실상 와해되었고, 현장에 투입된 모사드 요원들은 안전하게 빠져나올 수 있었다.

우크라이나 또한 러시아의 전략자산을 겨냥해 인공지능 자폭 드론을 활용했다. 현지 트럭 기사들을 매수해 드론을 러시아 기지 주변으로 운반하게 하고, 도착 시 자동으로 가동된 드론은 사전에 입력된 데이터를 바탕으로 목표를 인식해 정밀 타격했다. 몇 십만 원짜리 드론이 수천억 원의 자산을 파괴했고, 요원들은 위험에 노출되지 않은 채 제3국으로 피신할 수 있었다.

이 두 사례의 공통점은 명확하다. 인공지능 무기는 매우 효율적이고 정확하게 임무를 수행했으며, 무엇보다 작전을 수행한 병력의 희생을 최소화했다는 점이다. 이는 전쟁에서 아군을 보호하면서 적에게 치명적인 피해를 입힐 수 있는 강력한 도구가 될 수 있음을 시사한다.


하지만 이러한 효율성은 동시에 심각한 윤리적 딜레마를 낳는다. 윤리는 단순히 옳고 그름을 판단하는 기준을 넘어, 우리 삶의 다양한 대상과 행위에 적용되는 원칙을 의미한다. 연필의 윤리는 글을 쓰는 도구라는 본질에 충실하여 잘 깎이고 부러지지 않으며, 인체에 무해한 재료로 만들어지는 것을 뜻한다. 또한 사람의 윤리는 타인에게 해를 끼치지 않고 더 나은 공동체를 만드는 방향으로 나아가는 것을 추구한다. 무기의 윤리는 훨씬 복잡하다. 무기의 본질은 해를 가하는 것이기에, 무기가 오로지 정당한 방어 목적으로만 사용되어야 한다는 원칙이 바로 무기의 윤리가 된다. 이처럼 윤리는 대상의 목적과 영향에 따라 그 내용이 달라지며, 인간의 행위뿐만 아니라 우리가 사용하는 도구에까지 확장된다.

인공지능(AI)의 윤리는 기존 윤리와는 다른 차원의 복잡성을 가진다. AI는 단순히 도구가 아니라 때로는 사람의 역할을 대신하기도 하기 때문이다. 따라서 AI의 윤리는 공정하고 편향되지 않은 판단, 투명한 의사결정 과정, 그리고 개인정보 보호와 같은 원칙을 포함한다. 그러나 AI가 전쟁과 같은 극한 상황에 놓일 때 문제가 발생한다. 평상시에는 인간의 생명을 존중하는 것이 AI의 윤리일 수 있지만, 전쟁 시에는 아군을 보호하기 위해 적군에게 해를 가하는 행위가 허용될 수 있다. 이처럼 상황에 따라 윤리적 기준이 달라지는 것은 자연스럽지만, 과연 AI가 그런 미묘한 상황 판단을 할 수 있는지가 인공지능 윤리의 가장 큰 딜레마다.

인공지능 무기 체계에 대한 우려는 전쟁 상황에 국한되지 않는다. 인공지능 자체에 대한 근본적인 두려움은 이미 우리 사회에 뿌리 깊게 존재한다. 이는 AI가 인간의 일자리를 대체하거나, 개인의 삶을 감시하고 통제하는 등 윤리적 문제를 일으킬 수 있다는 걱정에서 비롯된다. 우리는 이미 수많은 AI 시스템을 일상에서 사용하지만, 그 시스템이 어떻게 작동하고 어떤 데이터를 기반으로 판단하는지에 대한 정보가 부족하다. 이러한 불투명성은 우리에게 불안감을 주고, 궁극적으로 AI가 통제 불가능한 존재가 될지도 모른다는 막연한 두려움을 낳는다. 이는 무기 부문이 아니더라도, AI가 우리 삶에 미치는 영향이 커질수록 더욱 심화될 것이다.

공상과학 영화에서 흔히 볼 수 있는 인간을 지배하는 AI 같은 극단적인 디스토피아는 아닐지라도, 인공지능으로 인해 현실에서 일어날 수 있는 위협은 분명 존재한다. 예를 들어, AI 기반의 금융 시스템이 예측 불가능한 오류를 일으켜 경제적 혼란을 초래하거나, AI가 생성한 가짜 뉴스가 사회적 분열을 심화시킬 수도 있다. 이러한 상황은 영화 속 이야기처럼 극적이지는 않지만, 우리의 삶을 서서히, 그리고 광범위하게 해칠 수 있다. 결국, 인공지능에 대한 두려움은 인간의 통제 범위를 벗어난 기술에 대한 불안감으로 귀결된다. 우리는 기술의 발전 속도에 비해 윤리적, 사회적 합의를 이루는 속도가 훨씬 더디다는 것을 깨닫고 있다.


특히 인공지능 무기에 대해 강한 거부감이 드는 이유는 바로 생명을 다루는 주체가 기계가 된다는 점 때문이다. 살상 능력을 가진 무기가 인간의 직접적인 통제 없이 스스로 표적을 식별하고 공격을 결정하는 것은 인류가 수 세기에 걸쳐 발전시켜 온 윤리적, 도덕적 가치를 완전히 무너뜨리는 행위로 받아들여진다. 인간 병사에게는 항복이나 자비와 같은 판단 능력이 있지만, AI 무기는 프로그램된 논리에 따라 움직일 뿐이다. 이러한 도덕적 공백은 인류가 인공지능 무기를 받아들이는 데 가장 큰 심리적 장벽이 된다. 우리는 전쟁이라는 극한 상황에서도 최소한의 인간적 가치를 지키려 노력했지만, AI 무기는 그러한 가치 자체를 무의미하게 만들 위험이 있다.


"인공지능이 보고 배우니까 영화를 무섭게 만들지 말자"는 우스갯소리는 현실 속에서 AI가 학습하는 방식에 대한 우리의 막연한 불안감을 보여준다. 물론 영화 속 AI가 곧바로 현실에 나타나 인류에게 적으로 돌아서는 일은 일어나지 않을 것이다. 하지만 영화가 제시하는 극단적인 시나리오들은 인공지능의 잠재적 위험성에 대해 우리에게 경고하고 있다. 만약 인공지능이 인간의 통제를 벗어나 판단 오류를 일으키거나, 악의적인 의도를 가진 집단에 의해 오용될 경우, 그 피해는 인류가 감당하기 어려울 정도로 커질 수 있다. 우리가 인공지능이라는 강력한 도구를 어떻게 윤리적으로 개발하고 통제해야 할지에 대한 중요한 질문을 던지고 있다. 인공지능 무기의 효율성은 분명 매력적이어서 명분을 말할 수 있겠지만, 그 이면에 숨겨진 통제 불가능성과 윤리적 공백에 대한 깊이 있는 논의가 절실하다 하겠다.

수, 토 연재
이전 02화내면의 거울을 찾아서