brunch

You can make anything
by writing

C.S.Lewis

by 르노르망 Nov 19. 2023

산책하다 산 책

열여섯 번째 산책로 - 『아이, 로봇』


열여섯 번째 산책로 - 『아이, 로봇』  



 2023년, 챗봇의 등장으로 인류는 두려움과 불안에 떨기 시작했다. 인간의 자리를 대체하는 것도 모자라 심지어 우리보다 일을 더 잘할 수 있는 로봇이라니. 로봇의 발전이 불러 올 문제들이 비단 현대에 대두된 것만은 아니다. 이미 오래전 과학자들, 소설가들의 상상력을 통해, 어쩌면 더 먼 먼 고대의 신화로부터 암시되어 온, 인간이 만든 존재가 인간을 넘어서서 그 기능을 더욱 압도적으로 수행해 내는 무수한 이야기들이 존재해 왔다. 


그러나 왜 현대를 사는 우리가 이에 대해 더욱 경각심을 느끼는 것일까? 인간에 근접한 로봇들이 실제로 출시될 날이 머지않았기 때문이다. 과거에는 상상 속에서나 등장하던 챗봇의 존재가 바로 지금 우리 눈앞에 와 있기 때문이다. 대부분의 공상과학 소설이나 영화 속에 등장하는 미래 로봇들은 인간을 지배하고 인간에게 해를 끼친다. 영화 <터미네이터> 시리즈가 미래 사회의 거울이라도 되는 양 곳곳에서 인용되고, 인공 지능 로봇의 미래를 떠올릴 때 가장 먼저 생각나는 이미지로 자리한 지도 벌써 오래전 일이다. 아서 C. 클라크의 소설 『2001년 스페이스 오디세이』에 등장하는 인공 지능 HAL의 반란은, 스탠리 큐브릭이 각색한 동명의 영화 속에서 내게 터미네이터 보다도 더한 공포를 불러일으켰다.



영화 <터미네이터>와 <2001년 스페이스 오디세이>의 한 장면



그러나 인공 지능 로봇의 진화 단계에서 우리가 목격하게 될 일들이 오직 이런 공포스러운 상황에만 국한되지만은 않을 것이다. 우리가 인상 깊게 기억한 영화나 소설이 반드시 미래의 현실로 이어지는 것은 아니다. 그것은 앞으로 도래할 현실의 일부분에 지나지 않는다. 오히려 이에 대한 선입견과 편견이 인류의 미래에 악영향을 미칠는지도 모른다. 거기에는 분명 순기능 또한 내재해 있을 것이다. 영화 속의 유명 장면들로 ‘만들어진’ 경향이 있는 기계에 대한 공포감이 챗봇의 등장으로 더더욱 심화되고 있다는 생각이 든다. 


그럼에도 일찍이 인간과 로봇이 맺을 수 있는 관계의 순기능과 역기능을 두루 살핀 역작이 있으니, 오늘날까지도 로봇 공학의 지침서라 평가받는 아이작 아시모프의 『아이, 로봇』이 바로 그 책이다. 사실 내가 이 책을 처음 접했던 건 꽤 오래전의 일이다. 이 책의 존재를 익히 알고 있었던 터라 몇 년 전 중고 서점에 이 책이 꽂혀 있는 것을 보자마자 주저 없이 집어 들었다. 지금껏 책 속에 흥미롭게 펼쳐진 미래의 산책로를 반복해 걸은 횟수만도 넉히 세 번은 되는 듯하다.


 『아이, 로봇』은 1940년대부터 약 10여 년간 아이작 아시모프가 다양한 SF 잡지에 발표했던 로봇 관련 소설들을 한 데 묶어 1950년에 단행본으로 출간한 과학 소설이다. 읽을 때마다 매번 어떻게 1950년대에 이 책이 출간될 수 있었는지, 아니 더 정확히는 어떻게 그 당시에 이런 생각을 할 수 있었는지, 아이작 아시모프가 무려 73년 전 읽어 낸 미래의 풍경에 경탄을 금치 못하게 된다.


그의 작품에 품게 되는 또 다른 경외감은, 흔히 우리가 상상해 왔듯 로봇이 지배하는 디스토피아적 세상에 대한 예측으로부터 오는 것이 아니다. 그것은 로봇과 인간 간의 관계에 철저히 낙관적이었던, 기계 문명에 대한 아이작 아시모프 특유의 통찰력에 기인한다. 여기에는 우리가 미래에 함께 하게 될 로봇들이 인간과 공존하며 지켜야 할 가장 기본적인 중요한 규칙, 즉 로봇 공학의 법칙이 최초로 등장한다. 챗봇의 도래를 목격한 인류로서, 잠시 이 원칙들에 귀를 기울일 필요가 있다. 



제1원칙 : 로봇은 인간에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인간을 모른 척해서도 안 된다. 


제2원칙 : 제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종해야 한다.  


제3원칙 : 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 로봇 자신을 지켜야 한다. 



이 로봇 공학의 3법칙은 지금까지도 그리고 앞으로의 로봇 연구에 있어서도 반드시 준수되어야 할 사항으로 간주된다. 또한 이 원칙들은 로봇에 대한 낙관론과 비관론을 동시에 작동시키는 동인이 된다. 


인공 지능 로봇에 대한 아이작 아시모프의 낙관론은 소설 내에 등장하는 로봇 심리학자 수잔 캘빈 박사의 입장으로 대변된다. 그녀는 평생을 로봇들의 바람직한 진화를 돕는 데에 바쳐왔다. <행성 신문>에 실린 특집 기사를 위한 인터뷰에서, 수잔 캘빈 박사는 기자에게 묻는다.



“몇 살이에요?”


“서른둘입니다.”


“그렇다면 로봇이 없었던 세상을 전혀 모르겠군요. 인류가 친구도 없이 혼자서 우주를 접하던 시절이 있었어요. 그런데 지금은 자신을 도와줄 피조물이 있지요. 인류 자신보다 힘세고 착실하고 쓸모 있으면서도 인류에게 절대적으로 충성하는 피조물. 이제 인류는 혼자가 아니에요. 선생은 이런 각도에서 생각해 본 적이 있나요?”


“없는 것 같습니다. 방금 하신 말씀을 그대로 인용해도 될까요?”


“마음대로 해요. 선생에게 로봇은 로봇일 뿐이겠죠. 기어가 달린 금속, 전기와 양전자. 마음을 가진 쇳덩이! 인간이 만든 물건! 그래서 필요하면 내버려도 되는 대상! 선생은 로봇하고 함께 일해 본 적이 없어서 모를 거예요. 로봇은 우리보다 훨씬 깨끗하고 우수한 종족이라는 걸.



하지만 로봇의 양전자 두뇌에 입력한 모든 복잡한 기계 장치에도 불구하고 때때로 로봇들은 로봇 공학 법칙의 딜레마에 봉착한다. 그것은 1,2,3 법칙 간의 위계질서가 제대로 작동되지 않았을 때이다. 


예를 들어 로봇이 인간의 안위를 1순위에 두어야 한다는 이 법칙은, 인간들이 자신들의 이해관계에 따라 다른 명령을 함으로써 로봇의 딜레마를 유발한다. 예를 들어, 집 안에 들어온 강도로부터 자신의 주인을 지켜야 하는 로봇은 그 강도를 공격해도 되는가? 인간을 우선시하라는 제1원칙과 복종이라는 제2원칙 사이에 선 로봇은 어떤 선택을 해야 할까? 


그 강도가 인간이라면 로봇은 제1원칙에 따라 인간에게 해를 가할 수 없다. 따라서 로봇은 강도를 죽이지 않으려고 최선을 다 할 것이다. 만일 그 과정에서 강도가 죽게 된다면 로봇은 갈등 상황에 봉착해 머리가 이상해질지 모른다. 혼돈으로 인해 문제가 생긴 로봇들은 인간과 마찬가지로 이를 극복하기 위해 심리 치료를 받아야 한다. “제1원칙을 지키기 위해 제1원칙을 어겼기” 때문이다.


그러나 인간들은 단지 강도를 퇴치하는 데에 로봇을 활용하거나, 로봇에게 심리 치료를 받게 하는 데에 그치지 않을 것이다. 인간들이 점차 이 법칙의 우선순위를 뒤바꾸리란 점은 자명하다. 벌써부터 문제 제기되고 있는 전투 로봇을 상상해 보자. 로봇의 진화가 시작되면서, 인류는 로봇 공학의 법칙들을 무시한 채 자신들에게 유리한 방식으로 로봇을 개조하고, 다른 인간들을 살상하는 데에 로봇을 활용하고자 할 것이다. 터미네이터가 힘을 발휘하는 것도 여기서부터다. 가장 중요한 제1원칙이 느슨해지고, 도리어 2와 3의 원칙이 강화되는 이 같은 상황에서, 기존의 로봇 공학 법칙은 의미를 잃는다. 애초에 터미네이터와 같은 인공 지능을 있게 한 것은 인간이었다. 결국 인간의 적은 인간 자신이다. 


그렇다면 인간이 로봇을 만든 취지는 과연 무엇이었을까? 왜 앞으로도 로봇을 만들고자 하는가? 인간의 노동력을 절약하고 편안한 생활을 하고자? 친구가 필요해서? 신의 창조력을 경험해 보고자? 창조적 쾌감은 예술 작품을 창조하는 것으로 충분히 충족되지 않는가? 오히려 사회적 시스템을 보다 인간적으로 수정해 나간다면 로봇 없이도 우리는 잘 살아갈 수 있지 않을까? 


이 모든 질문은 너무도 진부한 생각일지 모른다. 그러나 현시점에서 한번쯤 해 보아야 할 역행적 사고이기도 하다. 만약 로봇이 없던 과거로 되돌아갈 수 없다면, 인간 자신이 목적을 가지고 만들어 낸 로봇들을 두려워하고 배타하기보다, 함께 행복해지는 길을 모색하는 편이 현명한 처사가 아닐까. 이미 도래해 버린 챗봇의 시대에, 일차적으로 우리가 두려워해야 하는 것은 로봇이 아니라 인간 자신이 아닐까. 왜 로봇들의 진화를 두려워하면서, 인간은 자기 자신의 진화에는 전혀 신경을 쓰고 있지 않는 것일까.


대학마다 로봇학과와 인공 지능학과가 넘쳐나고, 인력이 모자라 골머리를 앓고 있다. 그러나 기계의 진보가 인류의 진화에 전적으로 도움이 되는 것만은 아니다. 여기에는 반드시 논리학과 윤리학, 미학과 같은 철학적 사고의 진보가 수반되어야 한다. 뿐만 아니라 어떤 속도의 진보 속에서도 우리를 더욱 인간답게 빛나게 해 줄 역사와 문화, 그리고 예술에 대한 추구가 인간에겐 절실하다. 


우리가 인간 본연의 임무와 윤리를 저버리지 않는다면, 로봇 공학의 법칙을 제멋대로 위배하지 않는다면, 로봇은 애초부터 우리의 경쟁 상대가 아니다. 로봇 공학의 원칙은 곧 인간의 윤리와도 맞닿아 있기 때문이다. 로봇들의 딜레마를 해결해 온 수잔 캘빈 박사의 관점도 이와 마찬가지다. 대도시의 시장이 된 로봇 ‘바이어리’를 둘러싼 논의 중 수잔 캘빈은 다음과 같이 그를 변호한다.



“로봇의 세 가지 원칙은 인간 세상의 윤리 기준에 합당한 기본 원칙이기 때문입니다. 인간은 누구나 자기 보호 본능을 갖고 있습니다. 로봇에게 이것은 제3원칙입니다. 그리고 공동체에 대한 의식과 책임감을 지닌 ‘좋은’ 인간이라면 누구나 합당한 권위에 따라야 할 것입니다. 의사나 직장 상사, 정부 기관, 심리 상담원과 동료의 말을 존중하고, 법을 지키고, 규칙을 따르고, 전통에 순응할 것입니다. 설사 그것 때문에 자신의 안위와 평안이 손상되더라도 말입니다. 로봇에게 이것은 제2원칙입니다. 그리고 ‘좋은’ 사람이라면 이웃을 사랑하고, 서로를 보호하며, 타인을 구하기 위해 모든 위험을 감수할 것입니다. 로봇에게 이것은 제1원칙입니다. 간단하게 말해서... 만일 바이어리 씨가 로봇의 세 가지 원칙을 모두 따를 경우에 그는 로봇일 수도 있고, 아주 좋은 사람일 수도 있다는 것입니다.”



인간이 이마고 데이(Imago Dei : 신의 형상)에서 유래했다는 말은, 비단 신과 인간의 관계에만 적용되는 것이 아니라, 인간과 로봇의 관계에도 적용된다. 나는 문득, 앞의 산책로에서 언급했던 휘트먼의 글과 사상을 떠올려 본다. 휘트먼의 생각과 행동을 닮은 로봇이 존재한다면 어떨까. 나쁘지 않을 것 같다. 수잔 캘빈 박사의 말이 맞는지도 모른다. “로봇하고 아주 훌륭한 인간은 잘 구분할 수 없다.”


챗봇을 넘어 신의 역할을 대신할 슈퍼컴퓨터의 도래를 인류는 예측한다. 하지만 그때에도 역시 인간이 가장 문제시되리란 것 역시 쉽사리 예측이 가능하다. 로봇 진화의 결말과 인간 진화의 결말은 아직 끝을 보지 않았다. 양자의 관계는 이제 막 시작된 것일 뿐이다. 먼 훗날, 로봇이 인류를 구원할 날이 올지 그 누가 알겠는가? 










작가의 이전글 산책하다 산 책
작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari