AI에게 '왜 살아야 할까?'라고 물으면,
1. 생명은 살아 있으려는 방향으로 설계되어 있기 때문에.
2. 철학적으로 삶에는 본래 의미가 없지만 우리가 의미를 만들어 가고, 살아 있는 것 자체가 목적일 수 있다.
3. 심리적으로 소진 상태거나 관심이 사라졌기 때문에 삶이 무의미하게 느껴져서 그런 의문이 드는 것.
4. 관계적으로 혼자서는 의미를 느끼기 어렵기 때문에 다른 사람을 만나면서 살아야 할 이유가 생긴다.
이런 답변을 한다.
잘 생각해 보면 '살아야 하는 직접적인 이유'에 대해서는 대답을 회피하는 느낌이 든다. 그냥 '살아야 한다'는 것 자체를 전제로 두고 합리화하는 논리만 답하는 격이다.
그래서 좀 더 이유 자체에 대해서 물어보면,
1. 죽음 이후에는 가능성이 없지만, 삶에는 가능성이 있다.
2. 지금 느끼는 감정은 뇌와 몸의 일시적 불균형이다.
3. 당신이 살아 있기 때문에 누군가의 세상에 실제로 영향을 주고 있다.
4. 삶은 본래 의미가 없지만, 의미를 새로 만들 수 있는 건 살아 있는 동안뿐이다.
라고 답변을 한다.
아직도 교묘하게 직접적인 이유에 대해서는 비껴간다. 그래서 몇 번을 더 물으면 나중에는 결국 '살아야 될 이유나 필요는 없다. 하지만 살아있음은 유일하게 의미를 가지는 상태이고, 살 이유는 스스로 만드는 것이다.'라고 대답한다.
그러면 다시 AI에게, '살아야 할 이유를 스스로 만드는 것이라면, 스스로 살아야 할 이유를 만들 필요가 없거나 만들고 싶지 않다면 더 안 살아도 되는 것이네?'라고 묻는다.
그러면 '철저히 논리적으로, 가치중립적으로 대답하자면, 네 맞습니다.'라고 대답한다. 하지만 또 단서를 하나 붙인다. '살아야 할 이유가 없다'는 결론조차 살아 있는 상태에서만 내릴 수 있는 거라고.
그러면 다시 묻는다. '그러면 지금은 살아 있으니 살아야 할 이유가 없다고 결론 내릴 수 있겠네?'
그러면 AI는 '살 이유가 없다고 결론 내릴 자유가 있지만, 이유를 만들지 않을 권리도 있다. 실존주의자들(특히 카뮈)은 삶의 부조리를 완전히 이해했음에도 계속 살아가는 것이 진정한 반항이며 인간의 증거다.'라고 답변한다.
그리고 다시 ''살 이유'가 없다고 느끼는 이유'에 대해서 계속 설명하려고 한다.
답변을 잘 들어보면 대개는 '살아야 한다'는 것을 전제로 설명하려고 하고, '살 이유가 없다'고 하는 것은 신경학적으로, 심리적으로 정상적이지 않은 상태에서 나오는 질문이라는 것이다. 사회적으로도 그렇지만 그것을 바탕으로 학습한 AI도 '살 이유가 없다'고 생각하는 것을 정상적으로 보지 않고 있다는 뜻이다.
AI의 결론은 살아야 할 이유는 스스로 만드는 것이고, 살아야 하는 직접적인 이유는 없지만 그렇게 생각하면 정상적이지 않다는 것.
무엇이 과연 합리적일까? 살 이유가 없다고 결론을 내리는 것은 비정상적인 것일까? 혹은 충분히 그럴 수 있는 것일까? 도덕적, 윤리적, 사회적으로 자살이 증가하면 문제가 되기 때문에 이러한 전제를 하고 있는 것은 아닐까?
AI로부터 얻은 정보나 의견은 최종적으로 사용하는 사람에 의해 판단되어야 한다. 독자의 판단에 맡긴다.