책임 없는 결정자에게 무엇을 맡길 수 있을까?

켄 리우의 『루프 속에서』을 읽고

by 알레로그

나는 “뭐 먹을래?”라는 질문에 “아무거나”라고 대답하는 편이다.

흔히 여자친구에게 이 질문을 하고 “아무거나”라는 답변을 들으면 “내가 뭐가 먹고 싶은지 맞춰봐”라고 해석하게 되는 밈이 있지만 나에게 해당되는 이야기는 아니다.

나는 오늘 아침으로 짜장면을 먹었더라도 누가 점심에 짜장면을 먹자고 따로 반대 의견을 제시하지 않고 따르는 편이다. 개인적으로는 ‘오늘 따라 뭐가 먹고 싶다‘라는 생각이 안들고 딱히 가리는 음식도 없이 맛있게 잘 먹는 편이기 때문에 결정을 미루는 편이다.


이런 내가 할 말은 아니지만, 사람들은 어째서 어떤 것을 먹고 싶은지 쉽게 대답하지 못하고 결정을 미루는 걸까?

짐작컨대 결정을 내리는 것 자체보다는 결정 후의 책임이 더 많은 비중을 차지하는 것 같다.

어떤 메뉴를 골랐을 때, 실제로 그 선택이 만족스러웠는지(가게가 적절했다던가, 맛이 적절했다던가, 서비스가 좋았다던가 등) 의 결과가 고스란히 결정을 내린 사람에게 책임으로 다가오지 않던가.

우리는 종종 판단을 내리는 것보다, 그 판단 이후를 더 두려워하는 것 같다.

그래서 의견은 내더라도, 선택은 타인에게 미루는 게 아닐까?




켄 리우의 단편소설 『루프 속에서』는 이러한 의사결정과 책임에 대한 소재를 담아 흥미롭게 이야기를 풀어낸다.


주인공 카이라는 과거 드론 조종사로 전쟁에 참여했던 아버지를 두었다.

어느 날 대사관 앞에서 벌어진 드론 공습을 멈춰달라는 시위를 계기로 카이라는 PTSD에 시달리는 드론 조종사들의 면담 자료들을 찾아보게 되고 아버지가 겪었을 트라우마를 상상하게 된다.

이러한 상상은 일자리를 찾고 있던 그녀를 ‘우리 영웅들이 겪는 PTSD 피해를 경감시킵시다’라는 문구에 이끌리도록 만들었고, 결국 그녀는 방위 산업 업체에 들어가 전쟁 영웅들을 ‘의사결정 루프‘에서 벗어날 수 있도록 하는 인공지능 개발에 참가하게 된다.


카이라가 개발한 인공지능 시스템은 겉으로 보기엔 효율적이고 과학적인 시스템이다. 드론을 조종하면서 적인지 아군인지를 식별하여 발포 결정을 내리는 행위는 시스템에 위임하는 것이 효율적이다.

한정된 정보를 토대로 규칙에 따라 판단을 내리는 행위는 인간보다는 기계가 더 정확하고 빠르게 잘할 수 있는 일이며, 동시에 인공지능은 자신이 내린 결정에 대해 사람과 같이 다시 떠올리며 감정소모를 하지 않기 때문이다.




이러한 이야기는 소설만 해당하는 사항은 아니다.

Chat GPT 이후로 AI는 많은 측면에서 우리 삶에 많은 결정들에 영향을 주고 있다.

이미 수많은 결정들을 '시스템'을 통해 이루어지고 있고, 앞으로는 더 많은 결정들이 시스템에 판단하에 내려질지도 모른다.


어떤 컨텐츠를 소비할지, 어떤 지원자가 더 좋은 성과를 낼지를 평가하고, 어떤 사람의 신용을 평가하여 대출 여부를 판단하는 등의 행위들은 '데이터 기반'이라는 이름 아래 이루어진다. 물론 더 나은 AI를 활용하여 더 나은 결정을 이루어내고 삶을 효율적으로 가꾸어 나가는 것이 잘못된 것은 아니다.


문제는 AI를 통해 정해진 의사결정이 틀렸을 때 발생한다.

"그렇게 추천한 건 알고리즘이야, 나는 그냥 따라간 것뿐이야.“

책임이 흐려진다.

사람은 실수하면 해고당하거나 비난을 받지만, 인공지능은 ‘업데이트’의 대상이 될 뿐이다.

사실 이것도 온전한 책임을 지는 방식이라고 할 수 있을진 모르겠다.


개발자는 인공지능을 탓함으로써 책임으로부터 도망칠 수 있다.

인공지능이 잘못된 판단을 내린 것이라고, 혹은 인공지능의 잘못된 대답을 할 수 있으니 곧이곧대로 받아들여서는 안된다고.


결정을 내린 사람도 인공지능을 탓함으로써 책임을 회피하려고 시도한다.

데이터 상으로는 그당시의 판단이 최선이었다고. 나는 인공지능의 알고리즘이 잘못된지 알지 못했다고.



판단의 최종 책임자는 누구여야 할까?

잘못된 알고리즘으로 틀린 판단을 내리는 AI를 만든 개발자?

아니면 잘못된 판단을 아무런 이의 없이 ‘따라간’ 나 자신?



결정에는 무게가 있다.

그 무게는 정확성과 효율성으로는 계산할 수 없는 것이다.

우리가 인공지능에게 맡기고 있는 것은 단순한 정보가 아니다.

때로는 생사, 때로는 인생의 방향, 때로는 윤리의 기준이 된다.

기계는 판단할 수 있지만, 책임질 수는 없다.


책임 없는 결정자에게 우리는 무엇을 맡길 수 있을까?

책임을 덜기 위해 기계에게 판단을 맡기고 있는 것은 아닐까?

책임의 무게로부터 도망치기 위해 기계를 방패로 세우고 있는 것은 아닌지 생각해봐야 하지 않을까?


keyword
작가의 이전글현재를 희생하면, 더 나은 미래가 올까?