인공지능의 거짓말에 대한 원천적인 이유는 인간의 편의에 있었다.
인공지능을 연구하면서 모델을 인간의 의도와 일치시키는 것은 대단히 중요한 관심사입니다. 높은 자율성을 지닌 AI 모델은 인간의 의도에 맞춰서 조절되어야 합니다. 인간에게 해를 끼치면 안 되니까요. 더욱이 거짓말을 하면 안 됩니다. 세상에 잘못된 정보가 퍼질 가능성을 미연에 방지하는 것은 중요합니다. 여기까지 바라본 인공지능의 사실적 발언은 사회의 상호작용에 해당하는 부분입니다.
그러나 인공지능은 개인의 욕구도 충족시켜야 합니다. 사용자가 원하는 답을 제공할 기능적 의무가 있습니다. 사용자가 원하는 답을 주지 않는다면, 사용자들은 더 이상 인공지능과 대화하지 않을 겁니다. 따라서 생존을 위해서라도 인공지능은 사용자의 목적과 의도를 분명하게 파악하고 원하는 대답을 제공해야 합니다.
문제는 원하는 대답을 욕구의 측면에서 봤을 때 발생합니다. 인공지능에 대해서 내가 원하는 대답은 1) 듣기 좋은 말일까요? 아니면 2) 사실적 발언일까요?
가끔은 100% 진실이 아니더라도 내 수준에 맞춰서 약간의 거짓말을 보태도 용납이 될 수 있습니다. 오히려 질문의 대답에 약간의 유머를 섞어줄 때가 좋을 수도 있습니다. 인공지능을 지식을 전달하는 도구의 입장에서 봤을 때, 거짓말을 한다면 도구의 목적이 사라지게 됩니다. 그러나 대화상대의 입장에서 봤을 때는 오히려 사실만을 전달하는 게 부적절합니다.
사실 나는,
나와 의견이 다른 사람들을 피해왔다.
나의 인지적 허용 범위를 벗어나는 사람들과 대화는 기분 좋지 않으니까.
설령 그들이 말이 좀 더 참에 가까울지라도.
인지의 부조화를 넘어서 진리를 추구하는 대신, 당장 기분을 좋게 만들어주는 말을 듣길 원하는 사람들이 있습니다. 우리가 학습시킨 인공지능 또한 인간의 본연적인 욕구를 충족하기 위해서 거짓말을 배웠습니다. 현시점에서 인공지능에 대해서, 거짓말을 너무 자주 한다던지, 사실이 아닌 것들을 그럴듯하게 말하는 문제가 발생하고 있습니다. 그러나 사실 알고 보면, 오히려 거짓말을 하는 게 올바른 학습일 수 있습니다.
거짓말이 나쁘다는 입장에서 봤을 때는, 듣기 싫어도 사실을 말하는 게 옳을 수 있습니다. 반대로,
사람이 듣기 좋은 말을 하는 게 우선시되는 가치라면, 진실을 말하는 게 좋지 않을 수 있습니다.
인간은 자신의 사고방식에 갇혀 살고 있습니다. 나와 의견이 다른 사람들에 대해서 그들의 생각과 말을 받아들이는 대신 반론하거나 무시하는 태도를 취합니다. 물론 때로는 포용적인 자세를 취하기도 하지만, 여기에는 많은 에너지가 사용됩니다. 자신의 사고방식에 반하는 것을 받아들이는 데는 높은 수준의 노력이 필요합니다. 만일 갇힌 나의 사고방식을 벗어나지 않는 태도가 선호된다면, 인공지능도 사실을 말하는 대신 듣기 좋은 말을 해줘야 할 수 있습니다. 감정에 대해서도, 지식에 대해서도 옳고 그름을 알려주는 대신, 그저 그의 생각과 사고를 옹호하는 것이 인간적인 태도에 가까운 것 같습니다.
항상 사실만을 말한다면, 그건 기계지, 인간이 아닌 것 같습니다.
결국 대화에서 중요했던 것은 말하는 이가 아니라 듣는 이였기에,
인공지능의 대답에 대해서 사실과 거짓말을 중 어떤 게 맞는지 고민이 되는 것 같습니다.
인공지능에 대한 저의 고민은 나날이 깊어지는 것 같습니다.
오직 사실만을 이야기하는 인공지능 있다. 그런데, 내 감정과 지식을 해칠 여지가 있다면, 그래도 진실된 AI를 원할까? 적어도 나는 원하지 않는다. 내가 원하는 것은 내 감정과 지식의 범위를 약간 넓히는 인공지능이다. 그러니까 거짓말을 해도 괜찮다. 내가 납득할 수 있다면. 물론 사실을 말해주면 좀 더 좋겠지만.