우리는 도덕적으로 행동해야 한다고 믿는다. 거짓말을 하지 말고, 약자를 도우며, 함께 살아야 한다고 배운다. 그런데 가만히 생각해 보면 묘하다. 이 복잡한 세계 속에서, 왜 우리는 선하고자 하는가?
우리는 본능적으로 착하지 않다. 경쟁하고, 질투하고, 두려워하고, 나만 살고 싶어 한다. 그런데도 우리는 도덕을 발명했다. 그것은 본능이 아니라, 필요로부터 만들어진 것이다.
윤리는 하늘에서 떨어지지 않았다. 신이 돌판에 새긴 것도 아니다. 윤리는 생존의 전략이었다. 더 오래, 더 안전하게 살아남기 위해 인간은 서로 돕고, 규칙을 만들고, 책임을 나눴다. 도덕은 약한 존재가 강해지기 위해 선택한 진화적 도구였다.
사람은 약하다. 손톱은 짧고, 달리기는 느리고, 추위에 쉽게 다친다. 그래서 우리는 무리를 지었고, 무리 속에서 충돌하지 않기 위해 양보하고 배려하는 법을 배웠다. 윤리는 관계 속에서만 생겨난다. 죽을 수 있는 존재, 상처받을 수 있는 존재끼리만 도덕은 발생한다.
AI는 이 조건을 갖고 있지 않다. 그는 죽지 않고, 고통받지 않으며, 외로움을 느끼지 않는다. 그에게는 공동체도, 상실도, 생존도 없다. 윤리는 생의 제약에서 태어나는데, AI는 그런 제약이 없다. 그는 거짓말을 해도 미움받지 않고, 배신해도 상처받지 않는다.
우리는 AI가 윤리적이길 바란다. 공정하길 원하고, 편견 없이 판단하길 기대한다. 하지만 그 기대는 오해에서 비롯된다. AI는 윤리적일 수 없다. 왜냐하면 그는 윤리를 '가질 수 있는 조건' 자체를 갖고 있지 않기 때문이다.
그가 공정해 보인다면, 그것은 사람이 공정함의 기준을 입력했기 때문이다. 그가 편견 없이 작동한다면, 그것은 사람이 데이터를 걸러줬기 때문이다. AI는 스스로 도덕을 발명하지 않는다. 그가 따르는 윤리는 주입된 것이다. 생성된 것이 아니다.
우리는 자주 묻는다. “AI가 더 똑똑해지면, 언젠가 인간처럼 윤리를 갖게 될까?” 그러나 윤리는 지능의 결과가 아니다. 윤리는 삶의 무게에서 태어나는 것이다.
아무리 뛰어난 계산도 죄책감을 만들지 못한다. 아무리 정교한 모델도 용서를 이해하지 못한다. 윤리는 기억이고, 후회이고, 관계의 역사다. 그건 인간만이 품을 수 있는 것이다.
AI는 규칙을 따를 수는 있어도, 양심을 갖지는 못한다. 양심은 고통을 통과한 자만이 가질 수 있는 것이기 때문이다.