brunch

You can make anything
by writing

C.S.Lewis

by 공장장 Dec 26. 2019

#004 AI의 판단기준과 인간의 사랑

디지털 시대의 생각법, 디크리에이션

“인간의 판단기준은 비논리적이다. 어떻게 합의하고 알고리즘화 할 것인가?”


2004년에 상영된 영화 ‘아이 로봇’은 2035년을 배경으로 인간과 AI의 관계가 어떠해야 하는지에 대한 질문을 던지는 영화다. 이 영화는 교통사고로 자동차 두 대가 강물에 추락한 상황에서 시작한다. 차 안에는 성인 남자와 한 여자가 타고 있었다. 사고 현장을 발견한 AI 로봇은 긴박한 상황에서 생존확률이 45%로 분석된 남자만 구출했다. 여자는 생존확률이 11%로 낮았기 때문이다. 로봇은 알고리즘화 된 합리적 판단기준에 따라 구조한 것이다.


그러나 그 남자는 구출되는 순간에 로봇에게 여자를 먼저 구조할 것을 명령했으나, 로봇은 따르지 않았다. 그 결과, 그 남자는 자신만 살아남은 것에 대한 자책감을 안고 살게 된다. 가슴 아픈 현실이지만 생명을 구조하는 전문직 사람들 또한 급박한 상황에서 합리적 판단을 하도록 훈련받지만 현장 상황에 따라 달라진다. 그러나 로봇은 판단기준대로 실행했고, 한 생명을 살렸다. 15년 여가 지난 지금 이 영화의 첫 장면은 자율주행차의 등장으로 현실의 이슈가 됐다. 자율주행차는 기술 수준에 따라 0~5 레벨로 구분된다.


인간이 직접 운전하는 것이 0 레벨이고, 지금 도로에서 보는 것은 3~4 레벨에 해당한다. 이 레벨은 평소에는 자율주행이 가능하지만, 운전자는 전방을 계속 주시하고 비상상황에 대비해야 한다. 그러나 5 레벨은 차원이 다르다. 인간이 AI에게 명령하면, 기계를 통제한 AI가 차를 주행시키는 방식으로 바뀐다. 5 레벨은 더 이상 차가 아닌  AI 로봇이라 부르는 것이 설득력을 얻고 있다. 가까운 미래에 5 레벨의 차가 눈이 내리는 날 도로를 주행하고 있다. 비상상황이 발생했다. 앞 트럭은 급하게 멈췄다. AI가 좌측엔 중앙선과 마주오는 차가 있고, 오른쪽엔 서있는 사람을 발견했다. 탑승자가 다치지 않으려면 오른쪽으로 방향을 틀어야 한다. 그런데 사람이 있다. 사람이 운전하는 0 레벨 차는 개인별 반응이 다르지만, 5 레벨의 AI가 기계를 통제한 차는 입력된 알고리즘에 따라 대처한다.


그 AI에 사람이 죽지 않아야 한다는 판단기준이 입력되어 있다면, AI는 오른쪽으로 방향을 틀어서 탑승자를 살리고, 보행자에게 상해를 입혔을 것이다. 그 보행자가 아이일 수도 있다. 이것은 AI가 알고 한 행동이었음에도 AI는 지탄받지 않는다. 이 결과는 인간이 사회적·법률적 합의를 이룬 것을 AI에 알고리즘화한 것이기 때문이다. 인간이 운전했을 경우는 고의성을 의심받지만, AI는 최선의 판단을 한 것이 된다.


AI가 운전을 대신하고 인간은 편안한 휴식을 얻는 과정에서 인간 고유의 상황판단은 알고리즘으로 대체된다. 이것은 자율주행차에만 해당하는 이슈가 아니다. AI는 인간이 사용하는 거의 모든 도구 사이에 끼어들고 그 도구를 작동시킬 것이기 때문이다. 지금 내가 맡고 있는 일의 영역부터 인간의 사랑을 담은 판단이 가능한 알고리즘을 만들어야 하는 이유다.


그렇지 않으면, 인간의 사랑은 합리적 판단기준에 뒤에 놓이게 되고 결국 인간에게서도 사라질 수 있다. 인간과 AI가 같은 판단기준을 따라야 한다면, AI의 것이 논리적이고 합리적이기 때문이다. 도로 주변을 걷던 사랑하는 사람이 합리적 판단에 상해를 입을 수 있고, 교통사고 시에 생존확률이 높은 아빠가 아이보다 먼저 구조될 수 있다. 영화가 현실이 되고 있다.

매거진의 이전글 #003 인간의 문제해결과 AI의 네트워크

작품 선택

키워드 선택 0 / 3 0

댓글여부

afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari