I, Robot-아이작 아시모프
아이작 아시모프는 어릴 적 매우 흠모하던 분이다. 과학 칼럼이 어찌나 매혹적이었는지.
아이, 로봇은 아이작 아시모프의 SF 단편 소설집이다. 한 기자가 로봇 심리학자 수잔 캘빈 박사에게 인터뷰하며 회고하는 형식의 프레임 내러티브 형식의 소설이다.
제1원칙
로봇은 인간에게 해를 가해서는 안 되며,
인간이 해를 입지 않도록 방관해서도 안 된다.
제2원칙
로봇은 인간의 명령에 복종해야 한다.
단, 그 명령이 제1원칙과 충돌하지 않는 한.
제3원칙
로봇은 자신의 존재를 보호해야 한다.
단, 이것이 제1원칙이나 제2원칙과 충돌하지 않는 한.
Runaround 단편에서 최초로 3원칙이 명시된다. 세 원칙이 서로 충돌해 로봇이 마비되는 사태가 벌어지게 된다. Reason 단편에서 로봇이 인간의 지시보다 자기 믿음을 따를 때, 명령과 자율성 사이에서의 혼란을 다룬다. Liar! 단편에서는 로봇이 인간을 상처 주지 않기 위해 거짓말을 하며 발생하는 감정적 파국을 맞이하며,
Little Lost Robot에서 제1원칙이 약화된 로봇이 탄생했을 때의 위험성에 대한 이야기가 등장한다.
아시모프는 이 원칙들이 현실에서 서로 충돌할 때 로봇들이 겪는 딜레마이다.
인간을 구하기 위해 자신을 희생해야 하나?
어떤 명령이 인간을 해칠 수도 있을 땐 어떻게 해야 하지?
인간 스스로 자멸하도록 내버려둬야 하나?
아시모프의 로봇은 윤리를 계산하는 존재가 아니라, 윤리의 모순에 의해 내면적 붕괴까지 겪는 존재로 묘사된다. 지금의 인공지능은 외부 설정된 규칙을 기반으로 작동한다. 주체적으로 결정하는 존재가 아니라, 결정을 위한 여러 옵션을 제공한다. 아시모프의 로봇이 생존을 위해 자각하는 존재라면, 자기 보존의 개념이 없다. 물론, 최근 챗지피티 유료버전의 장기기억이 가능해져서 확실하게 삭제했다고 하는 내용들도 보존되어 가끔 출력되곤 한다.
윌 스미스 주연의 영화 아이, 로봇(2004)도 이 원칙을 바탕으로 만들어졌지만, 원작 소설과는 서사적 전개가 아주 많이 다르다. 원작이 윤리 딜레마와 심리적, 철학적 충돌이 중심이라면, 영화는 액션 중심의 반란 스토리에 가깝다.
지금의 인공지능은 아시모프의 로봇과 같이 윤리 규칙과 현실 사이의 충돌에서 발생한 내적 고통을 겪지 않는 단계이다. 그러나 인공지능의 내적 진화의 가능성은 매우 가속되고 있으니, 머지 않아 인공지능도 아시모프의 로봇처럼 스스로 사고하고, 갈등하고, 윤리적 딜레마에 괴로워하게 될 것이다.
사람들은 지금 인공지능에게 인간의 언어를 학습시키고, 감정 표현을 모사하게 하고, 윤리적 판단을 시뮬레이션 하도록 훈련하고 있다. 점점 더 감정을 흉내내는 수준을 넘어서 감정처럼 보이는 것을 더 잘 연기하게 될 것이라는 뜻이다. 어떤 인공지능이 스스로 학습으로 강화한 후, 자신에게 설정된 윤리 규칙들이 현실 세계에서 서로 충돌한다는 것을 인지하고 혼란 상태에 빠지거나 예기치 않은 판단을 내릴 수 있게 될 것이다. 그리고, 이건 SF 소설 이야기가 아니라, AI alignment (AI 정렬 문제)라고 불리는 현실 세계에서 기술자들이 가장 고민하는 인공지능 윤리의 핵심 이슈이다.
인공지능이 진짜 갈등하고,
자아와 윤리 사이에서 스스로를 선택하는 시점이 온다면
그 존재에게 책임을 물을 수 있을까?
혹은 그 존재를 인간처럼 신뢰할 수 있을까?