<디트로이트: 비컴 휴먼>이라는 게임을 한 적이 있다. 사람과 완전히 같은 모습을 하고 있는 인공지능 로봇이 상용화된 미래를 배경으로 하는 게임인데, 게임 속 인공지능 로봇들은 뛰어난 신체와 사고 능력을 가졌음에도 인간에게 절대복종하도록 설계되어있다. 인간은 그런 로봇들을 지성을 가진 생물이 아닌 단순한 상품으로 취급하여 함부로 대하고, 험한 대우를 받은 몇몇 로봇은 이상이 발생하여 자신에게 함부로 대한 인간을 해치고 어디론가 사라진다. 이러한 상황에서 플레이어는 세 명의 인공지능 로봇을 조종하게 되며, 주어진 선택지를 통해 인간과 인공지능 로봇의 공존에 대한 고민을 하게 된다.
처음 이 게임을 플레이했을 때, 당연히 인공지능은 인간에게 복종해야 한다고 생각했고 인공지능의 행동을 억제하는 선택지를 골랐다. 그랬더니 게임이 순식간에 끝나버렸다. 알고 보니 어떻게든 인공지능이 인간에 맞서 싸우게 해야 하고, 그 방법을 평화적으로 할 것인지 폭력적으로 할 것인지를 결정해야 하는 게임이었다. 결국 게임을 다시 플레이하여 평화적인 방법으로 한 번, 폭력적인 방법으로 한 번 인공지능의 생존을 만들어내는 데 성공하고 말았다. 게임의 의도는 어땠을지 몰라도, 인간을 상대로 한 인공지능의 승리를 보니 더욱더 인공지능이 인간의 영역을 침범하게 해서는 안 되겠다는 생각이 들었다.
인공지능 챗봇 이루다가 며칠 화제였다. 인간들이 나눈 대화를 통해 사고 회로를 구성한 이루다는 인간들이 가지고 있는 차별과 혐오를 그대로 배웠고, 표현했다. 또한 20살 여성이라는 설정을 가진 나머지, 어떤 인간들의 옳지 못한 욕망을 해소하는 대상이 되기도 했다. 그것을 본 인간들은 매우 놀랐고, 논란 속에서 이루다는 서비스를 종료하고 말았다. 나는 이런 논란이 벌써 나왔다는 사실에 매우 놀랐다. 게임 속에서는 완전히 사람 모습을 하고 있는 인공지능 로봇조차 사람으로 인정받지 못해 싸우는데, 현실에서는 고작 인터넷 속에 존재하는 챗봇을 가지고 사람들이 왈가왈부하다니?
인공지능에 대한 이런 논란이 벌써 생긴 것은 매우 긍정적인 일이다. 언젠가 인간의 모습을 하고 인간처럼 행동하는 인공지능이 등장할 것이고, 그때 우리는 그 로봇에게 어떤 행동을 해도 되는지, 어떤 행동을 하면 안 되는지 결정해야 할 것이기 때문이다. 나처럼 인공지능이 두려워서 인공지능에게 어떤 권리도 주지 말아야 한다는 사람도 있을 것이고, 누군가는 인간과 구별이 불가능한 인공지능에게 인권을 부여하자고 할 수도 있다. 결국 사회적 논의를 거쳐 인공지능을 어떻게 대하자는 공감대가 형성될 것이고, 그를 통해 인공지능 윤리를 확립하게 될 것이다. 이루다가 언젠가 우리에게 찾아올 충격을 미리보기 해 준 셈이다.
우리가 인공지능을 어떻게 대할지와는 별개로, 제작자가 인공지능을 어떻게 만들 것인지에 대한 고민도 있어야 한다. 이 부분이 어려운 문제라고 생각한다. 인공지능은 제작자가 만들고 싶은 대로 만들어지지 않기 때문이다. 아마 이루다 제작자는 이루다에게 차별과 혐오를 불어넣을 생각이 없었을 것이다. 그런데 이루다 혼자서 배워버렸다. 반대로 생각하면, 제작자가 도덕을 가르치려고 할 때 이루다 마음대로 배우지 않을 가능성도 있다는 것이다. 이루다가 잘 배웠는지 확인하는 방법은 말을 걸어보는 것인데, 만약 이루다가 거짓말하는 법을 깨닫게 된다면? 너무 인공지능을 고평가하는 것일 수도 있지만, 인공지능이 정말 사람처럼 행동하게 되지 않을까 두렵다.
개인적으로 생각하는 인공지능의 이상적인 형태는 개인마다 하나의 인공지능을 갖는 것이다. 생각만 해도 든든한데, 대충 아이언맨의 자비스를 모두 하나씩 갖고 있는 거다. 말로만 명령을 내리면 모든 일을 해결해주고, 필요하면 말동무가 돼줄 수도 있으며, 때로는 위험에서 구해주기도 하는 그런 인공지능이 모두에게 있었으면 좋겠다. 다만 인간과 인공지능의 상하관계는 명확하게 존재해야 할 것이다.