brunch

You can make anything
by writing

C.S.Lewis

by 오영 Jun 02. 2024

항상 로봇(인공지능)은 이타적이어야만 할까?

일상과 사색

 몇 년 만에 대학시절 같은 과 친구를 만났다.


 이 친구와는 비슷한 관심사를 갖고 있던지라, 근황토크를 마치고는 이런저런 이야기를 나누던 중에 인공지능/로봇의 윤리(이하 로봇윤리)에 대한 이야기를 짧게 하게 되었다.


 로봇윤리에 대해서는 이미 많은 학자들이 고민을 하고 있던 분야이고, 이제는 현실의 단계로 임박했다 보니 연구단계를 넘어서서 실제 어떻게 적용할지에 대한 고민들이 많은듯하다.

*찾아보니 국내에도 로봇윤리 컨퍼런스라는 것이 열렸었다.


 사실 국내에도 일찍이 이 분야를 연구하신 학자들이 있어왔고, 우연히 이 분들의 책을 읽어볼 기회가 있었기에, 친구와 나누던 로봇윤리의 대화는 간만에 이 책에 대한 감상을 상기시켜 주었는데, 이야기를 나눈 후 집에서 좀 더 생각하다보니 이런 생각이 드는 것이었다.

제 생각이 이 책과는 꼭 같지 않을수도 있습니다



"항상 로봇(또는 인공지능)은 이타적이어야만 할까?"


 갑자기 왜 이 생각이 들었는가 말해보자면, 자율주행의 윤리 분야에서 항상 언급되는 논제인 [주행 중, 앞에 보행자가 있는데 피하면 탑승한 운전자가 다치고, 피하지 않으면 보행자가 다치는 경우]의 딜레마에서의 생각이 들어서였다.


 물론 이 딜레마는 좀 더 디테일한 상황에 따라 굉장히 복잡한 결정이 이루어져야하겠으나, 복잡한 문제를 간소화해보자면, 자율주행 차량이 봉사(serve)하고 있는 탑승자를 기준으로 이기적이어야 할 것인가, 아니면 이타적이어야 할 것인가의 문제로 볼 수 있지 않을까 생각했다.


 여기에서 잠깐, 우리는 저명한 SF소설가이자 과학자이고 개인적으로는 훌륭한 예언자였던 '아이작 아시모프'가 1942년에 제창한 로봇 3원칙(지금은 0원칙이 추가되었다)을 돌이켜볼 필요가 있다.

*80년 전에 이 놀라운 원칙을 만들었다니, 아이작 아시모프 당신은....


로봇 3원칙은 아래와 같다.


1원칙 : 로봇은 인간에게 해를 가하거나, 혹은 행동을 하지 않음으로써 인간에게 해를 끼치지 않는다.


2원칙 : 로봇은 1원칙에 위배되지 않는 한 인간이 내리는 명령에 복종해야 한다.


3원칙 : 로봇은 1원칙과 2원칙을 위배하지 않는 선에서 로봇 자신의 존재를 보호해야 한다.


(그리고, 1985년에 아시모프는 위 3원칙에 인류 집단 안전을 위해 0원칙 : 로봇은 인류에게 해를 가하거나, 해를 끼치는 행동을 하지 않음으로써 인류에게 해를 끼치지 않는다’를 추가하였다.)

로봇 3원칙이 언급된 '나는 로봇' 소설


 로봇 3원칙을 원리주의적으로 해석하자면, 위에 언급한 자율주행차의 딜레마 문제는 해결하기 어려운 문제로 보인다. 실제로도 로봇3원칙이 현 시점에서 완벽한 것은 아니기에 영국의 공학자들과 인문학자들이 모여, '로봇공학자를 위한 5가지 윤리'를 만들, 여기에서 로봇에 대한 책임의 주체가 인간임을 명시하기도 하는 등의 연구가 있으며, 우리나라에서도 '로봇윤리헌장'을 만드는 시도를 하고있는 것으로 알고 있다.

 나 역시, 위와 같이 여러 이견이 있을 수 있다는 전제로 로봇3원칙에 아래와 같은 질문을 던지면서, 원리주의적 해석보다는 자의적인 해석을 추가하여 보기로 했다.


 1원칙의 '인간에게 해를 가하지 않는다.' 라는 부분의 중심이 어떻게 될 것인가?


로봇, 즉 자율주행차가 serve 하는 주체가 누구인가를 보면, 탑승자가 될 것이다. 탑승자가 난폭운전을 지시함으로써 타인에게 해를 가하고자 하는 의도가 없는 한 (이 의도는 3원칙에 의해 원칙적으로 차단된다), 통상의 명령 즉, 목적지까지 안전한 이동명령을 수행하는 과정에서 앞서의 상황이 온다면, 탑승자, 보행자가 모두 안 다치는 솔루션을 수행하는 것이 이상적이겠으나,

딜레마의 상황은 둘 중 누군가가 다치게 될 것이라는 조건에서 결정된다고 할 때, 그 우선순위는 탑승자여야 한다는 것이다.


 그 이유는

첫째, 로봇은 탑승자에 봉사하고 있는 상태이며,

둘째, 탑승자가 아닌 보행자를 선택하게 될 경우, 그 자율주행차는 향후 그 서비스를 이용할 사람들에게는 본인의 의지와 무관하게 죽음의 수단이 될 수 있겠다는 생각이 있어서다.


 그럴 경우, 어느 누구도 자율주행차를 신뢰하고 이용하지 못하는 상황이 발생할 것이다.

로봇 3원칙에는 주종(主從)관계가 명확히 기술되어있지는 않으나, 의역을 하자면 그럴 것이라는 생각이다.


그래서, 생각한 질문이 바로, "인공지능은 항상 이타적이어야만 할까?"였다.


 이타적의 기준은 앞서의 탑승자도 보행자도 아닌 사람의 관점에서 볼 때, 말할 수 있는 기준이고 자율주행차를 나아가 인공지능 또는 다른 종류의 로봇을 사용하는 사용자의 입장에서 로봇 0원칙에 위배되지 않는 한 1, 2, 3원칙은 결국 사용자의 관점에서 수행될 수밖에 없지 않을까 하는 생각이다.


 생각해 보라. 내가 갖고 있는 로봇이 타인을 위해 나를 해할 수 있다면, 누가 그것을 감당하고, 이용할 것인지...


 앞서의 딜레마에서 보행자의 성별, 나이에 무관하게, 우선순위는 그 인공지능을 이용하는 사용자가 되어야 다른 분야에서도 적용이 될 수 있을 것이다.

실제 그런 일이 벌어졌을 때에는 인간 세계에서 그러하듯이 전후 상황에 따라, 해당 시점의 법에 준하여 판결을 하면 될 일이라고 생각한다.

 우리 인간세계에서도 결정하지 못할 것을 인공지능, 로봇에게 애초에 발생하지 않도록 함을 강요하는 것 또한 이기적이지 않은가. 우월한 존재인 인간조차 못하면서 말이다.


 내 생각으로 결국, 로봇윤리는 인간윤리와 다르지 않다는 것이다. 인간윤리에서도 타인을 해라라는 윤리는 없지만, 보편적으로 볼 때 그 기준은 나 자신이라는 것을 부인할 수 없기 때문이다. 우리 모두가 테러리스트가 아니듯, 테레사 수녀님도 아니니까...


 앞으로 우리는 인공지능의 세계에서 로봇과 함께 살아가게 될 것이다. 그 세계에서는 인간에게든 로봇에게든 윤리는 동일한 잣대로 주어져야 할 것이며, 그 과정에서 인공지능은 항상 이타적일 수는 없겠다라는 것이 내 생각의 결론이다.

 그것 변형하여 해석한 1원칙이 포함된 로봇 3원칙의 전제 함께, 완벽할 수 없는 부분은 인간이 오랜 기간 갖춰온 규범과 법률의 체계하에서 판단에 의해 보완된다는 관점에서 말이다.


덧붙임. 혹여나 오해하실까봐, 로봇이 이기적이어야 한다는 건 아니고, 모두가 만족할 만한 순수한 이타성을 기대할 수 없다는 생각을 담아봤습니다.  

작가의 이전글 초여름이 다가오는 밤에 듣는 생상스의 백조
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari