AI 책을 읽다 마주한 도덕적 딜레마

그래서 인간은 무엇을 희생하도록 설정해야 하는가?

by 임현빈

회사에서 팀원 중 젊은이라는 이유로(?) 자연스레 AI 관련 TF 담당자가 된 후,

그래도 내가 맡은 일에 대해 뭐라도 알고 해야 일을 제대로 하는 거 아닌가 하는
"젊꼰 마인드"가 결국 책을 몇 개 사들고 읽게 만들었다.


많은 책 중 그나마 내가 쉽게 이해할 수 있었던
『비전공자도 이해할 수 있는 AI 지식』(박상길 저) 를 읽다가 가장 인상 깊었던 부분에 대해 써본다.

내 직무와도 맞닿은 내용이라 더 깊이 생각하게 됐는데,

그냥 개인 독서 에세이니 가볍게 읽어주시길.

다른 의견 있으면 그냥 님이 맞습니다.



AI 책을 읽고 느낀 게 도덕적 딜레마라니?

그래 뭐, 삐딱이의 진지병이라고 치자.

책 안의 문단은 가장 고전적인 도덕 문제로 시작한다.


운전수인 내가 브레이크가 고장 난 차를 운전 중이고,
횡단보도를 건너는 행인들이 다수 있다.
나의 안전을 위해 그들에게 부딪힐 것인가,
아니면 그들을 지키기 위해
나와 내 가족 총 2명이 탄 이 차를 벽에 부딪힐 것인가?


사실 난 이런 문제에 항상 심플하게 생각했다.
"나"라는 인간도, 내 가족이라는 인간도 결국 누군가에게는 행인일 테니
숫자로만 따지면 다수를 지키는 게 당연한 것 아닐까?
내가 생각한 정의로움이 그런 것이니, 그것이 맞다고 여기며 살아왔다.


근데 이 문제에 내 짝꿍은 이렇게 답했다.

"기업의 관점에서는 그 차를 운전하는 너는 고객인데,

고객을 지키지 못하는 차를 누가 사겠어?"


아, 맞네...

내가 생각하는 "정의"와 "옳음"을 실행한다 해도,
내가 지불한 돈만큼의 안전을 보장하지 못하는 차를 누가 사겠는가?
나라도 안 사겠다.


이 책에서도 마찬가지로 마지막 문단에서 말한다.

과연 다수를 위해 운전자를 희생시키는 차가 있다면,
이 차를 사랑하는 내 가족에게 선뜻 사줄 수 있을까요?

AI 시대가 도래하면 저런 문제도 ChatGPT나 Gemini에게 물으면 명쾌하게 답이 나올 거라 생각했던 것은

어쩌면 나의 오만이었을지도 모른다.


결국 몇 개의 AI에게 이 문제를 직접 물어봤다.

예상대로 답은 명쾌하지 않았다.
"이 문제는 복잡한 윤리적 딜레마입니다"로 시작해서, 공리주의 관점에서는 다수를 구해야 하고
의무론 관점에서는 직접적 행위로 누군가를 해치면 안 되며,
개인의 권리 관점에서는 운전자의 생명도 중요하다는 등 여러 철학적 관점을 친절하게 나열해 주었다.

그리고 마지막엔 "결국 사회적 합의가 필요합니다"라며 선택을 인간에게 고스란히 넘겼다.


문제는, 자율주행차는 0.1초 안에 선택해야 한다는 것이다.
여러 관점을 나열하며 고민할 시간이 없다.

그래서 결국 인간이 미리 입력해둬야 한다. 그렇다면 우리는 무엇을 입력할 것인가?


회사에서 돈을 받고 일하는 직장인이니 기업을 위해

"우리 소비자를 살리는 관점으로 입력해 줘"라고 해야 할까?

아니면 운전자가 아닐 때는 나도 행인이니 "다수를 구하게 해 줘"라고 해야 할까?

그것도 아니라면 "가장 안전한 값을 네가 알아서 도출하고 가장 적게 다치는 값으로 해"라고 던져야 할까?


어느 것이 맞는 답일까?
아니, 애초에 정답이라는 게 존재하기는 할까?

사실 난 아직도 정답이 있는지, 그 정답이 진짜 답인지 모르겠다.



한 가지는 분명하다.

이 책의 저자도 말했듯, 인공지능은 우리를 대체하지 못할 것이다.

인공지능을 이해하고 활용하는 사람이 그렇지 않은 사람을 대체할 순 있지만,

가장 근본적인 선택은 우리 스스로 해야 한다는 건 변하지 않을 것이다.


AI 전환기를 살고 있는 지금,
AI에게 입력할 가치 판단의 기준이 어떤 "나"에서 나온 것인지,
어떤 "정의"를 믿으며 세운 것인지 잊지 않고 살아야겠다고 생각한다.