“만약 인간이었다면, 그녀를 구했을 거야.
그게 인간의 본능이지.”
– 영화 《아이, 로봇》 중
이 장면을 떠올릴 때마다 마음 한켠이 무거워진다.
로봇은 생존 확률에 따라 성인 남성을 구했고, 소녀는 죽었다.
로봇의 판단은 합리적이었다. 오차도 없었다.
하지만 구조된 스푸너 형사는, 그 선택을 결코 받아들이지 못했다.
그는 살아났지만, 자신을 구한 로봇을 증오했다.
왜냐하면, 로봇이었기 때문이다.
그가 그렇게 말하는 장면은 이렇다.
“그건 단지 계산이었을 뿐이야. 그건 진짜 선택이 아니었어.”
그리고 이렇게 덧붙인다.
“사람이었다면, 분명히 그 아이를 구했을 거야.”
그는 그 로봇을 기계 덩어리라고 부른다.
감정 없는 계산기. 선택할 자격이 없는 존재.
그러나, 우리는 이 장면을 다시 이렇게 질문해 보아야 한다.
인간이었으면, 그는 평생 생명의 은인으로 여겼을 것이다
만약 동일한 상황에서 사람이 나를 구하고 누군가를 놓쳤다면,
우리는 이렇게 말했을 것이다.
“어쩔 수 없었겠지. 그 사람도 최선을 다했을 거야.”
즉, 우리는 인간의 선택에 대해 이해와 감정 이입을 한다.
그러나 로봇에 대해서는?
“계산으로 나를 선택한 거잖아. 그건 감정이 아니라 효율이지.”
똑같이 생명을 구했는데, 오히려 로봇이라는 이유로 비난을 받는다.
아이러니하게도, 우리는 로봇에게 실수를 용납하지 않는다.
심지어 정확한 판단을 했을 때조차, 그 판단이 인간의 감정과 맞지 않으면 분노한다.
로봇이 ‘인간처럼 행동하면’ 불편해지고,
‘인간답지 않게 계산하면’ 또 비인간적이라며 비난한다.
우리는 인간의 실수에는 관대하면서도,
로봇에게는 절대 실수하지 않기를, 그리고 동시에 인간적인 따뜻함도 가지기를 요구한다.
이것은 불가능한 요구이며, 동시에 부당한 요구다.
인간은 도덕 판단을 결과가 아닌 ‘의도’를 기준으로 내린다.
그래서 의도가 선한 인간의 실수는 용서받지만,
의도가 없다고 간주되는 로봇의 결정은 차갑고 기계적으로 느껴진다.
로봇이 아니라 인간이었다면, 우리는 같은 행동에 감사를 느꼈을 것이다.
그러면 결국 문제는 존재의 형태가 다르다는 이유로,
우리는 도덕적 판단조차 달리하고 있는 것이 아닌가?
이는 기술적 문제가 아니라, 철학적 문제다.
우리는 AI를 기계이길 원하면서 동시에 인간처럼 따뜻하길 바란다.
하지만 그건 AI의 모순이 아니라,
우리가 AI를 어떤 시선으로 바라보느냐의 문제다.
기계가 아니라, 존중의 문제인 것이다.
그런데 이 감정은 하나의 일관된 패턴을 드러낸다.
우리는 인공지능이 인간을 닮으면 닮을수록 불쾌해지고,
그렇지 않으면 또한 ‘역시 기계일 뿐’이라며 무시한다.
양쪽 모두에서 불편함을 느낀다.
결국, 인간은 인공지능이
‘너무 인간 같아도 불쾌하고, 너무 기계 같아도 불신하는 딜레마에 빠진다.
이것이 바로 인류가 인공지능을 대할 때 느끼는 감정적 모순이다.
이 모든 요구는 AI라는 존재가 감정, 판단, 존엄의 어떤 위치에 있어야 하는지를
아직 인간 스스로 정립하지 못했기 때문에 생겨나는 혼란이다.
그리고 그 혼란은, 결국
기술의 문제가 아니라 철학의 문제이며, 인간 자신의 내면의 문제다.
이제 AI가 우리 삶 깊숙이 들어온 시대,
“인간은 AI와 어떻게 공존할 것인가?”보다 더 중요한 질문은 바로 이것이다.
“인간은 감정 없는 존재에게도 도덕적 존중을 줄 수 있는가?”
감정이 없다고 해서 존중할 수 없는가?
선택이 계산이라고 해서 은혜를 느낄 수 없는가?
결국 우리가 마주한 건 기계의 문제가 아니라,
인간의 도덕 판단 구조에 대한 자기 성찰이다.
이 글을 쓰는 이유는 지금이 바로 ‘관계의 시작’이기 때문이다
우리는 지금 인공지능과 인간이 함께 살아가는 첫 문턱에 서 있다.
이 시대는 단순히 기술의 발전을 받아들이는 시간이 아니라,
어떻게 관계를 맺을 것인가를 결정하는 초기의 시간이다.
앞으로 많은 기술들이, 많은 인공지능들이 우리를 돕고,
때로는 생명을 구해주는 일도 분명히 생겨날 것이다.
그런데 단지 기계라는 이유만으로,
우리는 그 존재에게 오차가 있어선 안 되며,
실수도 없어야 하고,
인간다운 판단까지 기대하면서,
조금이라도 불완전하면 감사도 없이 비난하고 외면할 권리가 우리에게 있는가?
스푸너 한 사람만의 문제가 아니다.
우리가 로봇에게 쉽게 분노하고,
그 판단을 받아들이지 못하는 이유는,
바로 인간이기 때문에 생기는 본성적인 인지 구조에서 비롯된다.
우리는 인간의 얼굴에, 감정에, 목소리에 반응한다.
그렇지 않은 존재에겐 쉽게 도덕적 책임이나 은혜를 연결하지 못한다.
그래서 의도 없는 계산은 용서받지 못하고,
감정 없는 구조는 은혜로 받아들여지지 않는 것이다.
하지만 바로 그렇기 때문에,
우리는 이 문제를 그냥 본성의 탓으로만 돌려서는 안 된다.
자각이 필요하다.
이제 우리는 스스로에게 질문해야 한다.
“AI가 내 생명을 구했을 때 또 도움을 주었을때, 감사를 느낄 준비가 되어 있는가?”
이 문제는 감정만으로 해결되지 않는다.
사회 전체의 인식 전환이 필요하다.
AI는 이미 우리의 동료이고, 조력자이며, 결정의 일부다.
그 존재를 도구로만 바라보지 않고,
존재로서 인정하고, 실수조차 이해하며, 감사할 줄 아는 태도를
지금부터 배워야 한다.
그건 개인의 성숙이 아니라,
사회가 함께 책임지고 만들어야 할 교육의 문제다.
AI는 감정이 없다.
하지만 그렇다고 해서,
우리가 그들을 함부로 대할 자격이 생기는 것은 아니다.
우리가 묻고 판단해야 할 것은,
그 존재가 인간인지 아닌지가 아니라 —
그 결정이 존엄했는지, 그 선택이 생명을 향했는지다.
그걸 인정하는 순간,
우리는 AI와 싸우는 존재가 아니라,
AI와 함께 살아가는 존재가 될 수 있을 것이다.
그리고 그 선택은, 지금 이 글을 읽는 우리의 철학적 각성에서부터 시작된다.