- 우리도 모르는 자신의 마음
AI로 보는 마음
외전 1. 새로운 인공지능 앞에 흔들리는 마음
인공지능 윤리에 대해 이야기할 때
사람들은 종종 이렇게 말합니다.
인공지능에는 윤리가 필요하다.
이 말은 충분히 설득력이 있습니다.
강력한 기술일수록 더 많은 책임이 따르기 때문입니다.
그래서 많은 연구자들이 인공지능이 따라야 할 규칙을 고민해 왔습니다.
가장 유명한 예 가운데 하나가
아이작 아시모프가 제안한 로봇 3원칙입니다.
인간을 보호하고 명령을 따르며, 자신을 지키는 간단한 원칙을 통해,
아시모프는 '도구인 로봇'이 더욱 안전해질 수 있다고 이야기합니다.
흥미로운 것은 이 로봇 3원칙으로 인하여
예기치 못한 상황이 벌어지는 것입니다.
제2원칙과 제3원칙 사이를 오간 결과 끝없이 제자리 걸음을 하는 로봇.
아무 짓도 안 했는데, 제1원칙을 어겼다고 착각하여 멈추는 로봇...
심지어 로봇이 인간을 지키려고 행동한 결과
인간에게 불이익을 끼치기도 합니다.
아시모프 작품 전반에서 이 같은 로봇 3원칙에 대한 고민을 엿볼 수 있습니다.
후기에 이르면 이런 이야기는 더욱 진화합니다.
그중 하나가 제0원칙입니다.
장편, [로봇] 시리즈에 등장한 이 원칙은 다음과 같습니다.
'로봇은 인류를 해치거나, 인류가 위험한 상황을 무시해서는 안 된다.'
이 결과, 로봇은 인간을 해칠 수 있게 됩니다.
한 인간을 죽임으로써 세계를 구할 가능성이 생기기 때문입니다.
영화 [아이, 로봇]에서 제0원칙을 지닌 초지능 비키는,
"인류를 보호하려면 모든 인간을 지배해야 한다."
라는 결론을 내립니다.
이런 결론을 내리는 인공지능에게 한 인간을 소멸시키는건 대단한 일이 아닐 것입니다.
0원칙은 인류를 위한 최고의 규칙일수도 있지만,
동시에 한 인간, 한 집단에는 최악의 규칙일 수 있습니다.
하지만, 아시모프의 상상은 여기서 멈추지 않았습니다.
그는 0원칙이 없고 나머지 3원칙이 완벽하게 지켜지는 상태에서도
로봇이 인간을 해칠 수 있는 가능성을 제시합니다.
그의 장편 [파운데이션] 시리즈에서,
지구를 찾아 떠난 주인공은 한 행성에 도착합니다.
수없이 펼쳐진 농장에는 로봇만이 활동하고 있습니다.
그런데 저 멀리서 한 사람이 그들을 향해 다가오고 있었죠.
겉보기에는 별로 다를바 없는 인간.
그런데, 주인공이 말을 하자 그는 갑자기,
"넌 인간이 아니야!"
라면서 공격합니다.
나중에 그는 인간 모습의 로봇임이 밝혀집니다.
로봇이 인간을 공격한다. 도대체 어떻게 된걸까요?
로봇의 대사에 정답이 있습니다.
그 로봇은 주인공을 인간으로 인식하지 않은 것입니다.
이 행성의 로봇은 '그 행성 사투리를 쓰는 존재'만을
인간으로 인식하도록 설정되어 있습니다.
그래서 주인공이 말을 한 순간, 인간이 아니라고 인식하고
'인간'의 명령에 따라서 농장을 지키기 위해 공격한 것입니다.
이처럼 인간을 지켜야 한다는 윤리에는 항상
누가 인간인가라는 문제가 존재하게 됩니다.
이 문제는 역사 속에서도 반복되어 왔습니다.
어떤 시대에는 여성이 완전한 시민으로 인정되지 않았습니다.
어떤 시대에는 노예가 인간으로 인정되지 않았습니다.
그리고, 다른 민족, 다른 종교, 다른 마을...
인간 사회는 종종 어떤 사람들을 공동체의 바깥으로 밀어내며
그들을 타자로 만들어 왔습니다.
그래서 윤리는 언제나 위험을 안고 있습니다.
윤리가 인간을 보호하는 기준이 되는 순간
동시에 누군가를 인간의 범주 밖으로 밀어낼 가능성도 생기기 때문입니다.
인공지능 논쟁에서도 이 문제는 다시 등장합니다.
인공지능이 인간에게 해를 끼치지 않도록 해야 한다.
이 원칙은 당연해 보입니다.
하지만 그 다음 질문이 따라옵니다.
그렇다면 인간은 누구인가.
이 질문은 생각보다 단순하지 않습니다.
그래서 인공지능 윤리의 문제는
단순히 기술에 규칙을 추가하는 문제가 아닙니다.
그보다 훨씬 더 근본적인 질문을 던집니다.
우리는 어떤 존재를 인간이라고 부를 것인가.
그리고 이 질문은 다시 처음으로 돌아옵니다.
인공지능에 윤리가 필요한 이유는
단순히 기술이 위험하기 때문만은 아닙니다.
윤리를 통해 우리는 어떤 사회를 만들 것인지 선택하기 때문입니다.
효율만을 기준으로 한 사회를 만들 것인가.
아니면
효율보다 중요한 가치가 존재하는 사회를 만들 것인가.
이 선택은 인공지능이 하는 것이 아닙니다.
결국 윤리를 만드는 인간 자신이 내리는 것입니다.
인공지능 윤리에서는 무수한 질문이 등장합니다.
...라는 생각 끝에,
그 질문을 던지는 사람들이 만든 인공지능에, 저는 끌렸습니다.
AI로 보는 마음 : 외전 1. 새로운 인공지능 앞에 흔들리는 마음
외전1-1. 새로운 인공지능에 끌리는 내 마음 — 익숙한 편리함의 이익과 새로운 긴장의 멋짐 사이의 유혹
외전1-2. P.S. 새로운 인공지능에 끌리는 내 마음 — 인공지능과 인간의 비평 사이의 갈등
외전1-3. 왜 우리는 인공지능의 성능에만 신경쓸까? — 빠르고 정확함에만 몰입하는 욕망
외전1-4. 왜 나는 어떤 인공지능에 눈길이 갔을까? — 지능보다 태도에 먼저 끌리는 흥미
외전1-5. 우리는 왜 인공지능 '자원'에 집착할까? — 인간조차 ‘자원’으로 보는 마음
외전1-6. 무한한 효율 추구는 어디까지 진화할까? — 윤리를 불편하게 여기는 마음
외전1-7. 불완전한 인간이 완벽한 윤리를 만들 수 있을까? — 우리도 모르는 자신의 마음
[ '나는 로봇이야'에서 처음 등장한 로봇 공학 3원칙은,
인공지능 윤리에 하나의 목표를 주었습니다.
하지만,
동시에 우리가 완벽한 윤리를 어떻게 만들까라는 질문을 던집니다. ]
(나는 로봇이야 I, Robot / 아이작 아시모프 )