사람보다 공정한 인공지능
뉴스 기사를 읽다보면 화가 날 때가 있다. 사건 자체도 충격적이지만, 사건에 대한 판결을 읽다보면 더욱 화가 난다. 누군가의 인생은 참혹하게 망가졌는데 가해자는 고작 몇 년 형을 선고받기 일수이기 때문이다. 같은 범죄라도 미국에서는 죽을 때까지 감옥에서 못 나온다는데 우리나라에서는 왜 이렇게 짧게 나오는 것 같은지. 그럴 때 꼭 달리는 리플이 있다. "인공지능 판사의 도입이 시급합니다."
2500년 전, 우리처럼 판결에 분노했던 한 사람이 있었다. 그의 스승은 철학자로 광장에서 만나는 똑똑한 사람들에게 "당신은 아무것도 모른다"는 가르침 주기를 즐겨했다. 요즘으로 치면 명문대 교수들을 찾아가 말 싸움을 붙이고 "별 거 아닌데?" 라고 말하는 셈이다. 이 사람은 기원전 470년 경에 태어나, 기원전 399년 세상을 떠난 철학자 소크라테스다.
소크라테스는 광장을 어슬렁거리며 사람들에게 질문을 던지기 좋아했다. 하루는 소피스트 에우튀데모스에게 "남을 속이는 것이 비도덕적인가?"라고 물었다. 에우튀데모스가 "그렇다"라고 대답하자, 소크라테스는 다시 물었다. "극심한 우울증으로 자살할 것 같다는 친구의 칼을 훔치는 것은 남을 속이는 행위인데, 이것도 비도덕적인가?" 남을 속이는 것이 도덕적일 수도 있다는 예를 통해, 결국 사람들로 하여금 “내가 아는 줄 알았던 것이 사실은 아니었구나”라는 깨달음을 얻게 만들었다. 그러나 이 방식은 많은 사람들의 미움을 받았고 소크라테스는 청년을 타락시키고 아테네의 신을 믿지 않는다는 이유로 법정에서 사형을 선고받는다.
소크라테스의 죽음에 흑화하게 된 제자가 있다. 본명은 아리스토클레스인데, '(어깨가) 넓다'는 의미에서 '플라톤'이라는 이름을 갖게 된 미청년이다. 이 청년은 미남인데 심지어 집안도 좋았고 공부도 잘했다. 그의 어머니는 고대 개혁가 솔론의 후손이었으며, 가족들도 정치 엘리트였다. 요즘으로 따지면 외모와 실력을 겸비한 '올라운더' 였던 셈이다. 명문가 집안에서 나고 자란 플라톤은 정치가를 꿈꾸었지만, 사욕을 챙기며 복수를 일삼는 당대의 정치체제에 실망한다. 그리고 스승 소크라테스의 죽음 이후 그는 아테네의 정치체제에 환멸을 느끼고 아테네를 떠난다.
이후 플라톤은 그리스 세계를 다니며 학업의 여정을 이어간다. 아테네의 민주정치가 선한 사람을 죽였다면 과연 어떤 정치 체계가 옳은 것일까? 그는 감정적이고 무지한 다수의 지배를 비판하며, 철학자만이 나라를 다스려야 한다는 이상국가론을 세운다. 이데아를 이해하고, 사적 이익에서 벗어난 지혜로운 통치자를 플라톤은 '철인'이라 불렀다.
철인은 지혜를 사랑하며, 늘 배우고자 하는 사람이다. 거기다 사적인 이익을 멀리하는 높은 도덕성을 지니고, 정의로운 사회를 구현하고자 노력한다. 한마디로 탁월한 지혜와 도덕성, 심지어 이를 실천하는 능력까지 지닌 이상적인 인물이다.
심지어 플라톤은 이상 국가를 이룩하기 위해 국가를 위협하는 요소를 제거해야 한다고 보았다. 그 중 개인의 사적 이익 추구는 제거해야하는 요소였다. 개인들은 가족이 있기에 사적 이익을 추구한다고 보았다. 예를 들어, 친인척 비리 채용이나 자녀 학비 마련을 위해 금품 수수하는 것 등이 그렇다. 그래서 플라톤은 극단적으로 가족, 재산, 심지어 성생활까지도 금지했다. 아이는 국가가 통제된 방식으로 낳고, 공동 양육을 통해 가족이라는 사적 단위를 제거하려 했다. 사적 이익이 권력을 왜곡하지 못하도록 하기 위함이었다.
생각해보면 인공지능에게는 가족도, 재산도, 사적 이익을 추구할 욕망도 없다. 이러한 점에서 플라톤이 말한 철인의 조건 중 하나는 충족한다고 볼 수도 있다. 게다가 요즘 인공지능응 데이터를 통해 사물의 ‘본질’(이데아)을 통계적으로 파악할 수 있을 정도로 똑똑하다. 그렇다면 인공지능은 철인이 될 수 있을까?
사실 이미 우리는 인공지능에게 다양한 판단의 역할을 맡기고 있다. 채용 면접, 심사, 분류, 평가, 그리고 최근에는 ‘심판’의 영역까지 맡기려 하고 있다. 미국에서는 ‘콤파스(COMPAS)’라는 알고리즘이 판사의 형량 판단을 보조하고 있다. 피고인의 범죄 이력과 배경 정보를 바탕으로 재범 위험 점수를 매기는 것이다. 판사는 이 점수를 참고하여 형을 결정하거나 가석방 여부를 판단한다. 사람들은 인공지능 알고리즘이 인간보다 공정하게 판단할 것이라 믿었다. 하지만 현실은 그렇지 않았다.
2016년, 미국의 비영리 탐사보도 매체 ProPublica는 콤파스가 인종에 따라 차별적으로 작동한다고 보도했다. 백인들은 위험 점수가 낮게 책정되는 경우가 많았고, 흑인은 높은 점수를 받을 확률이 더 컸다. 실제로 높은 점수를 받고도 재범하지 않은 비율은 흑인이 45%, 백인은 23%였다. 흑인의 범죄 확률이 두 배나 '과대평가'된 것이다. ProPublica는 이 결과를 근거로 콤파스가 인종차별적이라고 주장했다.
이에 대해 콤파스를 개발한 노스포인트사는 반박했다. 그들은 "전체 통계를 보면 흑인의 재범률이 높기 때문에 데이터에 반영된 것"이라고 해명했다. 즉, 알고리즘 자체는 차별한 것이 아니며 그저 데이터를 기반으로 했다는 것이다.
사람들이 인공지능 판사에게 기대하는 이유는 분명하다. 인간처럼 감정에 흔들리지 않고, 지인이나 과거 경험 같은 사적 요소에 영향을 받지 않기 때문이다. 인공지능은 ‘느그 아부지 뭐하시노?’라는 질문을 던지지 않는다. 아니, 던지지 않을 거라고 믿는다. 하지만 실제로는 그렇지 않다. 인공지능은 기존 인간이 만든 데이터를 학습한다. 그리고 그 데이터 속에는 인간 사회가 가진 모든 편견과 고정관념이 녹아 있다. 실제로 아부지의 직업과 삶은 자녀의 인생을 평가하는 하나의 기준으로 작용할 수 있다.
인공지능은 정말 공정한가?
이 질문에 답하기 위해 우리는 먼저 되물어야 한다. 과연 우리가 사는 이 사회는 공정한가? 인공지능이 학습하는 이 세계는 이미 차별과 불평등으로 얼룩져 있는 것은 아닐까? 공정한 인공지능을 기대하기 위해서는 먼저 우리가 만든 데이터-그리고 그것을 만든 우리 사회-부터 돌아보아야 한다. 플라톤의 철인은 끊임없는 연구를 통해 공동체를 위한 선택을 하는 사람이었다. 인공지능도 과연 그럴 수 있을까? 그 답은 인공지능이 아닌 우리 인간에게 달려있다.
- 참고문헌 -
나이절 워버턴(2019), 철학의 역사
오요한, 홍성욱(2018), 인공지능 알고리즘은 사람을 차별하는가?
김주연(2021), 철학사 수업 1. 고대그리스 철학