기술적 특이점 - (AI 윤리 위원회) 4

4. 통제력 상실과 인간의 역할

by 진동길

4. 통제력 상실과 인간의 역할 — 인간 없는 판단, 생명 없는 전장 —


1. 사례 개요: 자율 무기 시스템(Lethal Autonomous Weapon Systems, LAWS)


자율 무기 시스템은 인간의 직접 개입 없이 표적 식별 결정 공격 실행까지 수행할 수 있는 무기체계를 말합니다. 일명 ‘킬러 로봇(Killer Robots)’이라고 불리는 이 시스템은 군사적 효율성과 병력 손실 감소라는 이유로 빠르게 개발되고 있습니다.


대표 기술:

• 드론 기반 공격 체계

• 인공지능 기반 표적 분류 알고리즘

• 군용 로봇의 군집 행동(swarm behavior)




2. 윤리적 딜레마: 인간 없는 죽음은 정당화될 수 있는가?


오작동의 가능성


AI는 예측 불가능한 환경, 민간인과 군인의 혼재 상황, 통신 오류 등으로 인해 잘못된 표적을 식별하거나 판단 오류를 일으킬 수 있습니다.

• 예: 사람의 동작만으로 적군을 오인하거나, 적절한 맥락 없이 ‘무장’ 여부만으로 위협 판단을 내릴 수 있음.


책임의 공백

누가 죽음을 ‘결정’했는가?

병사도, 지휘관도, 정치인도 아닌 알고리즘이 생명을 앗아간다면, 그 책임은 누구에게 있는가?


가능성 책임 주체 문제점

군수 업체 설계 결함 책임 회피 가능성

군 지휘관 배치 결정 기술적 판단은 본인이 내리지 않음

병사 사용자 자율성이 높은 경우 명령 통제가 어려움

프로그래머 코드 작성 의도된 사용 목적과 실제 사용 상황 불일치

국가 정책 결정 국제법 적용이 불명확함




3. 기술적 함정: ‘의도 없는 판단’이라는 허구


AI는 인간처럼 의도를 갖지 않지만, 결정의 결과는 실제 생명과 죽음이라는 현실로 이어집니다. 인간은 **의도(intent), 맥락(context), 책임(responsibility)**이라는 세 가지 요소를 바탕으로 도덕적 판단을 내립니다. 그러나 AI는 다음과 같은 방식으로 이를 대체합니다:

• 패턴 학습: ‘이전에 적군이었던 행동’과 유사한 패턴을 추출

• 확률 기반 결정: 위협일 가능성이 높은 대상에게 우선 대응

• 실시간 연산: 인간의 개입보다 빠르게 반응


이러한 작동 구조는 결과를 낳지만, 책임을 생성하지 않습니다.




4. 인간 존엄성과 생명권에 대한 근본적 도전


AI가 생사결정을 내릴 수 있도록 허용하는 것은 단순히 기술의 문제가 아니라, 인간에 대한 철학적·신학적 정의를 흔드는 일입니다.


가톨릭 신학 관점:

모든 생명은 하느님에게서 온 것이며, 인간은 그 생명을 보호하고 돌볼 책임이 있습니다.

생명과 죽음을 결정하는 주체는 하느님뿐이며, 인간은 그 고유한 영역에 침범해서는 안 됩니다.

자율 무기가 생명을 거두는 역할을 수행한다면, 이는 인간이 ‘하느님의 자리를 차지’하는 셈입니다. 이는 **기술의 교만(hybris technica)**입니다.




5. 국제 사회의 반응과 공백


국제 규범과 시도:


구분 내용 한계

UN CCW 회의 자율 무기 규제 논의 강제력 없음

Human Rights Watch “Stop Killer Robots” 캠페인 정치적 갈등으로 입법 지연

ICRC(국제적십자위원회) 인간 통제권 유지 강조 각국 군사전략과 충돌


“No machine should be allowed to decide who lives and who dies.”

“어떤 기계도 누가 살고 누가 죽는지를 결정하게 해서는 안 된다.”

— Christof Heyns (UN 특별보고관, 2013)


그러나 강대국 중심의 무기 개발 경쟁은 이러한 윤리적 논의를 무력화시킬 위험이 있습니다.




6. 프란치스코 교황의 비판: “기술이 인간을 대신해서는 안 된다”


프란치스코 교황은 자율 무기 시스템에 대해 다음과 같이 강하게 경고한 바 있습니다:


“인간의 역할을 기계에 맡길 때, 우리는 단지 도구를 넘겨주는 것이 아니라, 도덕적 판단의 주체성 자체를 상실하게 됩니다.

인간 없는 죽음은 결코 정당화될 수 없습니다.”

— 프란치스코 교황, 2021년 평화의 날 담화


가톨릭 사회교리의 연장선:

• 보조성의 원리(subsidiarity): 기술은 인간의 결정을 보조하는 선에서 사용되어야지, 대체해서는 안 됨.

• 책임의 윤리: 결정에는 반드시 도덕적 책임 주체가 있어야 하며, 인간은 그 책임을 회피할 수 없음.

• 정의로운 전쟁 이론(Just War Theory): 무차별적, 비비례적인 피해가 예측되는 무기체계는 윤리적으로 허용될 수 없음.




결론 요약


항목 설명

문제의 본질 인간 없이 생명을 결정하는 무기의 출현은 생명권에 대한 윤리적, 신학적 도전을 의미함

딜레마 책임 소재 불명확 / 인간 통제력 상실 / 기술이 판단 주체가 됨

핵심 위험 오작동 무고한 인명 피해 / 전쟁 윤리의 해체 / 신의 자리를 대체하려는 기술의 교만

요청되는 조치 국제 규제 강화 / 인간 통제권의 명시 / 교회 및 시민사회의 윤리적 저항

신학적 입장 생명은 하느님의 고유 영역이며, 인간은 이를 대신해서는 안 됨. AI는 도구일 뿐, 판단의 주체가 되어선 안 됨




4. 프란치스코 교황의 가르침과 자율 무기 윤리


1. 기계의 판단이 아닌 인간의 양심


프란치스코 교황은 일관되게 기술의 자율성보다 인간의 책임성을 강조해 왔습니다. 특히 전쟁, 생명, 정의에 대한 결정에서 기계가 인간을 대체하는 것에 대해 다음과 같은 우려를 표합니다:


“기술은 인간의 지혜와 도덕적 분별을 대신할 수 없습니다.

인간의 생명은 어떠한 알고리즘의 계산 결과로 축소되어서는 안 됩니다.”

— 2021년 세계 평화의 날 담화


자율 무기 시스템은 바로 이러한 “기술의 주체화”라는 문제를 드러냅니다.

프란치스코 교황은 인간의 역할을 AI에게 양도하는 것 자체가 ‘도덕적 책임’의 포기이며, 인간 존엄성의 부정이라고 보았습니다.




2. “모든 생명은 선물이며 책임” – 생명권의 신학적 근거


가톨릭 교회는 모든 생명을 하느님께로부터 온 고유한 선물로 이해합니다(「가톨릭 교회 교리서」§2258).

이러한 입장은 자율 무기 시스템이 임의로 인간 생명을 박탈할 수 있는 권한을 가진다는 발상 자체를 근본적으로 부정합니다.

• 생명은 도덕적으로 숙고된 인간의 판단으로만 제한될 수 있으며,

• 아무리 정교한 알고리즘이라도 ‘의미 있는 도덕적 판단’을 내릴 수 없습니다.


“우리는 기술의 진보보다, 인간의 책임의 진보가 더 시급합니다.”

— 교황 프란치스코, 「모든 형제들」(Fratelli Tutti), §105




국제 윤리헌장들의 입장


1. UNESCO AI 윤리 권고안 (2021)


UNESCO는 국제 사회 최초의 범세계적 AI 윤리 문서를 통해 다음을 천명합니다:


“AI 시스템은 인간의 결정권을 대체하거나 제거해서는 안 된다.

특히 생명, 사법, 전쟁 등에서 인간은 최종 책임자로서 판단의 주체여야 한다.”

— UNESCO AI Ethics Recommendation, §18


자율 무기 시스템에 대한 비판은 다음과 같은 핵심 원칙에서 근거합니다:

인간 중심성 (Human-centeredness)

AI는 인간의 권리와 안전을 중심에 두어야 하며, 생사 결정에 개입하지 말아야 함.

설명 가능성과 책임성 (Explainability and Accountability)

죽음의 판단이 불투명하고 무책임하게 이루어지는 것을 방지해야 함.

불가역성의 원칙 (Irreversibility)

무기의 자율적 판단은 돌이킬 수 없는 결과를 초래하므로, ‘돌이킬 수 없는 결정’은 반드시 인간이 내려야 한다.




2. Rome Call for AI Ethics (2020, 바티칸)


‘Rome Call for AI Ethics’는 바티칸 과학원과 Microsoft, IBM, FAO 등과 공동으로 작성한 가톨릭 중심의 AI 윤리선언문입니다.


핵심 6대 원칙 중 특히 두 가지가 자율 무기 논의에 중요합니다:


원칙 설명

Transparency (투명성) 인간이 AI의 결정 과정을 이해하고 통제할 수 있어야 함.

Responsibility (책임) AI의 결정은 언제나 인간이 책임질 수 있어야 함. 책임 없는 AI는 용납될 수 없음.


이 문서의 정신은 자율 무기 시스템이 불러오는 책임의 분산, 생명권 침해, 통제력 상실의 윤리적 문제를 직접 겨냥하고 있습니다.




가톨릭 노동윤리와 기술 사용의 원칙


가톨릭 노동윤리는 기술을 인간을 위한 도구로 이해하며, 노동이 인간의 자율성과 공동선에 기여해야 한다고 주장합니다. 이 입장에서 자율 무기 시스템은 다음과 같은 이유로 근본적 문제를 가집니다:


1. 인간 노동의 자기실현성 파괴

• 자율 무기는 인간의 역할을 도구로 축소시키고, 기술적 판단에 의존하게 만듭니다.

• 이는 노동을 통한 인간의 자기실현과 윤리적 분별 능력을 거세합니다.


2. 보조성의 원칙(Subsidiarity) 침해

• 기술은 인간의 결정을 보완해야지, 대신해서는 안 됩니다.

• 자율 무기는 인간의 도덕적 판단을 **‘위임’ 받는 것이 아니라, 사실상 ‘대체’**합니다. 이는 도덕적 주체로서의 인간 노동자의 존엄성을 무시하는 결과를 초래합니다.


3. 공동선(Common Good)의 파괴

• 자율 무기 기술은 군사 경쟁을 부추기고, 빈국은 이를 따라잡을 수 없어 불평등이 심화됩니다.

• 또한 오작동 시 무고한 시민을 위협하는 ‘사회적 불안정성’을 심화시키는 요인이 됩니다.




종합 정리


관점 주요 내용

교황의 가르침 기술은 인간의 양심과 책임을 대신할 수 없으며, 생명권은 하느님께 속한 영역.

UNESCO 윤리헌장 AI는 인간 통제를 벗어나선 안 되며, 특히 생사 결정에는 인간이 책임 주체여야 함.

Rome Call AI의 사용은 책임성과 투명성을 담보해야 하며, 자율 무기의 경우 이는 불가능에 가까움.

노동윤리 자율 무기는 노동의 윤리성을 해치고, 도덕적 판단을 기술이 대신하게 만드는 위험 요소.




결론: 인간은 기계보다 먼저, 책임은 기술보다 앞서야 한다


자율 무기 시스템은 기술의 최전선이지만, 동시에 윤리의 최후 방어선이기도 합니다.

기술의 발전이 인간을 벗어나 자율성과 판단의 권한까지 위임받는 순간, 우리는 생명과 책임의 본질을 재정의해야 할 위기에 직면합니다.


프란치스코 교황과 세계 윤리헌장들은 입을 모아 이렇게 경고합니다:


“기계는 생명을 결정할 수 없으며, 인간은 책임을 포기할 수 없다.”


keyword