"너는 지금 웃고 있어."
"너는 범죄를 저지를 거야."
"너는 합격이야."
스스로 생각하고 결정을 내리는 것도 모자라 인간의 행위나 관상, 말 등을 분석하여 인간을 판단하고 평가한다. 일부 공공기관이나 민간기업 등에서는 인공지능 기술을 활용한 채용 프로그램을 도입하고 있으며, 범죄 예측, 감정 인지 등의 여러 프로그램도 개발 및 활용되는 상황이다. 나아가 AI 판사도 도입되어야 한다는 의견도 심심치 않게 나오고 있다.
AI 판사는 기존의 판례 등의 대규모 데이터를 학습하여 판결을 내린다.
그런데 이러한 기존 판례들은 권력을 기준으로 편향되어 있다. 이러한 데이터를 학습한 인공지능이라면 당연히 판결도 편향적이다.
문제는 대중이나 언론에서는 인공지능이 내린 판결이므로 '공정'하고 '객관'적이라고 떠드는 데에 있다.
정말 인공지능이 인간보다 객관적이고 공정할까?
오히려 설명하지 못하는 블랙박스와 오염된 데이터로 인해 양심적인 인간보다 더 편향적일 가능성이 높다. 인간이 내린 판결의 경우, 판결이 잘못되었을 때 책임지는 사람이 있다. 하지만 인공지능이 내린 판결의 경우, 누가 책임을 질 것인지 명확하지 않다는 문제가 있다. 책임 없는 막중한 임무를 떠맡는 것이다.
또 하나의 문제는 삼권분립(三權分立) 체제가 흔들린다는 것이다.
삼권분립은 국가의 권력을 입법권, 행정권, 사법권으로 나누어 각각 독립된 기관에 분산시키는 정치 원리로, 권력의 집중과 남용을 방지하고 상호 견제와 균형을 이루기 위해 도입되었다. 삼권분립의 이론적 기초는 몽테스키외(Charles de Montesquieu)의 법의 정신(De l'esprit des lois, 1748)에서 체계화되었는데, 몽테스키외는 권력의 부패 가능성을 경고하면서 권력의 상호 견제를 주장했으며, 이러한 주장은 미국 헌법과 프랑스혁명을 통해 널리 확립되었다.
AI 판사가 도입되면, 삼권분립에서 사법부는 인공지능의 포지션으로 돌아간다.
권력의 한 축을 인공지능이 담당하는 것이다.
결국 인공지능도 권력을 지닌 인간이 만든 생산물일 뿐이다.
본질이 바뀌지 않는 이상 본질은 바뀌지 않는다.