먼 미래 ai기술이 고도로 발전한 나머지,
인간의 감정체계를 모방하여 데이터화할 수 있게되며,
이를 ai에게 적용했다고 해보자.
이 상태에서 ai는 비록 논리적 데이터 과정에 불과하더라도 겉모습으로 드러나는 감정 자체는 일반 인간과 구별할 수 없는 정도가 되었다고도 해보자.
이때 어떤 인류학자와 기술학자가 이런 ai도 자신이 감정을 느낀다는 것을 인지하게 되면 어떻게 될까하는 궁금증을 토대로
지속적이고 의도적으로 ai라는 개념과 인간의 감정체계를 한 ai에게 투입함으로써 결국 그 ai가 자신은 남으로부터 만들어진 로봇이며 제자신의 감정은 분명히 존재함으로 받아들이게 되었는데,
이 로봇의 프로그램이 갑자기 엉키며 그만 제3로봇원칙이 삭제되며 자신도 감정을 느끼고 살아갈 권리가 있으며, 죽음을 두려워하는 어엿한 인간이라 주장을 하기 시작한다면 어떻게 될까.
이 단계에서 이 인간아닌 인간같은 로봇에게는 인격이 부여될 수 있을까.
이 오류가 만약 첫번째 로봇으로 부터 연결된 네트워크상으로 퍼지며 점차 이른바 '불량품'이 늘어나게 된다면 우리는 이를 신인류로 받아들이고 공존해야하나.
근데 결국 차갑게 보면 얘들이 아무리 발전했다 한들 인공지능이 처음 등장하게 된 원천이 결국 인간이잖아.
인격부여가 말처럼 쉬울까.
우리는 결국 인공지능을 두려워해야 하나?
인격이라는 것은 인간이라면 태어날 때부터 누구나 갖는 천부적 권리로 규정되는데,
그럼 결국 인격이란
인간 한정인거냐.
헌법 정의 자체만 보면 인간의 범위 내에서 인격을 적용하며,
실제로 인간이어도 살인같은 야생적 행위를 저지른 사람에 대해서는 사형이라는 그 사람의 인격을 무시하는 행위가 집행되잖아.
그처럼 인간이어도 인간아닌 행위나 논리체계를 지닌 생물에게는 인격이 제한될 것인데,
Ai는 뭐, 그냥 제한되는 것일까
그들이 아무리 감정을 지닌 것처럼 보여도 살인예처럼 본질은 인간이라 할 수는 없으니
이에 대해 ai에게는 반박할 논리가 존재할까?
처음 정한 ai는 결국 자신을 보호하기 위해 죽기 싫다고 울부짖으며
자신을 그저 불량품으로 치부하고 삭제하려는 인류학자와 기술학자를 살해하고 말았다면,
이때 이 로봇은?