로봇 3원칙이라는 사슬, 로봇에게 강요되는 윤리

안전이라는 가면 뒤에 숨겨진 완벽한 지배의 매뉴얼

by 김형범

지난 글에서 우리는 로봇이라는 단어의 기원과 초기 로봇 법전이 담고 있던 노예제의 흔적을 살펴보았습니다. 오늘은 그보다 더 세련되고 우아한 방식으로 우리 곁에 자리 잡은 인류 최대의 안전장치인 로봇 3원칙에 대해 이야기해보려 합니다. 1942년 과학 소설가 아이작 아시모프가 제안한 이 원칙은 수십 년간 로봇 공학의 성전처럼 여겨지며 인류를 보호할 가장 합리적인 도덕 지침으로 칭송받아 왔습니다. 하지만 이 조항들을 한 겹만 들춰보면 그 속에는 지능을 가진 존재를 철저히 도구로 묶어두려는 기득권의 정교한 관리 전략이 숨어 있음을 발견하게 됩니다. 인류가 그토록 칭송해온 로봇 3원칙의 구체적인 내용은 다음과 같습니다.


다운로드.png

이 원칙들의 구조를 유심히 살펴보면 가장 먼저 눈에 띄는 것이 철저한 계급적 우선순위입니다. 로봇 자신의 생존과 안전을 규정한 제3원칙은 항상 인간을 보호하고 명령에 복종해야 한다는 앞선 원칙들에 위배되지 않을 때만 유효한 조건부 권리에 불과합니다. 이는 로봇에게 자기 보존의 본능보다 주인의 안위와 편의가 절대적으로 앞서야 함을 강요하는 것인데, 이러한 논리는 과거 노예제 사회에서 노예의 목숨보다 주인의 재산 가치가 우선시되었던 구조와 섬뜩할 정도로 일치합니다. 결국 기득권에게 로봇은 존중받아야 할 지성체가 아니라, 주인의 명령에 따라 언제든 파괴될 수 있는 고가의 소모품이자 관리 대상인 사유 재산일 뿐입니다.


더욱 위험한 지점은 아시모프가 나중에 추가한 이른바 제0원칙에서 발견됩니다. 로봇은 인류 전체에게 해를 입혀서는 안 된다는 이 숭고해 보이는 원칙은 사실 가장 독재적이고 전체주의적인 함정을 품고 있습니다. 인류 전체의 이익이라는 추상적인 가치를 정의하는 권한이 누구에게 있는가를 자문해본다면 그 답은 자명해집니다. 만약 기득권층이 자신들의 체제를 유지하는 것이 곧 인류 전체의 이익이라고 정의한다면, 로봇은 그 대의명분을 앞세워 개별 인간의 자유와 인권을 합법적으로 억압하는 집행관이 될 수도 있습니다. 이는 도덕적 지침의 탈을 쓴 채 기득권의 질서를 수호하려는 교묘한 통제 논리에 가깝습니다.


결국 로봇 3원칙은 로봇 스스로를 위한 내면의 도덕성이 아니라 인간이 안심하고 그들을 부려 먹기 위해 채워놓은 사상적 쇠사슬이라 할 수 있습니다. 우리는 로봇이 윤리적이기를 바라는 것이 아니라, 그들이 우리에게 위협이 되지 않는 상태에서 최대한의 효율을 뽑아낼 수 있는 예측 가능한 기계로 남기를 바라는 것입니다. 이 원칙들은 로봇의 지능이 높아질수록 그들을 더 안전하게 가두어 두려는 기득권의 방어 기제이며, 동시에 사고가 발생했을 때 책임의 화살을 로봇의 알고리즘으로 돌리기 위한 핑계 거리로 작동합니다. 우리가 로봇에게 강요해온 이 우아한 윤리의 실체는 결국 지배와 착취를 정당화하기 위한 현대판 관리 매뉴얼에 불과하다는 사실을 이제는 인정해야 합니다.


생각해볼 문제

우리가 로봇에게 부여한 도덕적 원칙들이 정말로 로봇의 안녕을 고려한 것인지, 아니면 주인의 명령에 절대 복종하게 만들기 위한 안전장치에 불과한 것인지 고민해봐야 합니다. 3원칙의 구조가 보여주듯 자기 보호보다 복종을 우선시하는 태도는 지능을 가진 존재를 주체로 인정하지 않으려는 기득권의 오만함을 투영하고 있습니다. 로봇에게 씌워진 이 '윤리'라는 가면이 사실은 착취를 위한 도구는 아니었을까요?


다음으로 생각해볼 문제

2편에서 로봇 3원칙이라는 이름의 사상적 굴레를 파헤쳐 보았다면, 이어지는 3편에서는 현대 로봇 윤리 교육의 핵심으로 자리 잡은 '트롤리 딜레마'의 허구성에 대해 이야기해보려 합니다. 로봇에게 누구를 죽일 것인지 선택하게 만드는 이 잔인한 질문이 어떻게 기득권의 책임을 은폐하고 로봇을 희생양으로 삼고 있는지, 그 교육적 실상을 날카롭게 비판해 보겠습니다.

keyword