인공지능의 차별적 의사결정을 바라보는 두 가지 측면
인공지능 결정은 데이터 처리에 기반하기에 차별 취급에 대한 우려도 커졌다. 과거 온.오프라인의 행적이나 짜여진 프레임에 갇힐 수 있기 때문이다.
머신러닝이 최종 결정에 이르는 과정이 있어 기존의 차별에 관한 법리를 적용하면, 그 우려는 사그라질 것인가? 결론적으로 인공지능의 차별적 결정에 대한구제는 사법상 해결로도 가능하며, 머신러닝에의 차별의도 및 그것의 은폐 여부가 재판상 실체법적 문제로 남는다.
그러나 인공지능의 차별 쟁점은, 차별적 취급의 의구심만으로도 사회적 파장을 불러온다.
인공지능의 차별적 의사결정에 대한 대응은 사후적·법적 해결보다 사전적 규제가 효율적일 수 있다. 인공지능결정은 인간이 결정하기 전 미리 그 결정권을 위협하기 때문이다.
헌법상 평등권 원리의 적용
인공지능으로 인한 차별은 우리 헌법에서의 평등권 내지는 평등 원칙과 관련이 깊다. 우리 헌법은 차별에 관한 금지 사유를 열거적 규정으로 두지는 않았다. 다만 특정한 차별사유에 대해서는 특별법에서 정하고 있고 나머지는 헌법 제11조 제1항의 차별금지 조항을 적용할 수 있다. 예를 들어「국가인권위원회법」에서는 합리적 이유 없이 특정인을 성별·종교·장애·나이 등을 이유로 고용·교육·주거·재화·공급 등에서 우대, 배제, 구별, 불리하게 대우하는 행위를 각각 차별행위로 보아 금지하고 있다. 장애인차별금지 및 권리구제 등에 관한 법률」및「고용상 연령차별 금지 및 고령자고용촉진에 관한 법률」등 개별법에서는 특정 영역에서의 차별을 금지함으로써 성별, 연령, 인종, 국적, 장애, 종교, 성적 지향 등이 특정 집단에 속한다는 이유로 차별적 취급을 받는 것에 보호책을 마련했다.
헌법상의 평등 원칙을 차별행위에 적용하기 위해서는 법률의 헌법의 평등 원칙 위배 여부를 헌법 제11조 제1항에 따라 "국가나 국가기관의 공권력 행사가 국민의 기본권인 평등권을 침해하는지"를 판단해야 한다.
헌법재판소에 따르면 특정한 행위가 평등권을 침해하는지 판단하기 위해서는 “본질적으로 동일한 집단 사이에서 차별적 행위가 있는지” 및 “그 차별적 행위에 합리적인 사유의 존재 여부가 있는지”를 검토하여야 한다. 따라서 본질적으로 동일한 대상임에도 차등적인 대우가 있다면 차별적 취급이 되는 것이고, 본질적으로 동일하지 않은 대상에 대한 차등적인 대우는 더 이상 차별적 취급으로 판단될 여지가 없다.
결국 차별에 관한 판단은, 특정 집단이 본질적으로 동일한 집단인지 여부가 매우 중요한 역할을 한다. 차별적 취급으로 판단된 행위는 다음 단계로 그 차별적 취급에의 합리적인 사유가 있었는지를 판단한다.
이 단계에서 헌법에서 특별히 차별금지 사유를 두는 경우 또는 차등적 대우로 기본권에 중대한 제한을 초래하게 된 경우에는 차별취급의 목적과 수단 사이에 엄격한 비례관계를 요구하는 엄격심사인 ‘비례의 원칙’이 적용되고, 나머지의 경우에는 차등적 대우의 자의성을 판단하는 ‘자의금지 원칙’이 적용된다.
두 원칙 모두 차별행위자의 차별의도를 고려하고 있지 않다.
차별의 유형과 차별금지 법제 개관
우리 헌법에는 간접차별에 대한 규정이 없으며 간접차별의 개념은 직접차별과 대비되는 개념으로 설명된다. 직접차별이 “일정한 속성 또는 표지를 가진 사람에 대해서 그것을 이유로 불리하게 대우하는 것”이라고 한다면, 간접차별은 “외형상 차별금지 요소를 근거로 하지 않고, 객관적이고 중립적으로 보이는 다른 요소를 적용함으로써 결과적으로 차별금지 요소를 가진 사람 또는 집단에게 불리한 결과를 초래하는 것”이다.
영국 등 유럽의 국가들에서는 직접차별을 ‘direct discrimination’의 용어를, 간접차별은 ‘indirect discrimination’의 용어를 사용하고 있으며, 미국에서는 직접차별을 ‘disparate treatment’의 용어를, 간접차별은 ‘disparate impact’, ‘adverse impact’, 또는 ‘adverse effects’의 용어로 지칭하고 있다.
간접차별의 개념은 (i) ‘과거 차별의 영향으로 나타난 구조적 차별’ 및 (ii)‘일정한 집단에 발생하는 차별적 결과에 초점을 두는 관점’이다. 첫째, ‘과거 차별의 영향이 차별적 사회구조에서 나타난다’는 관점은, 간접차별이 어떤 편견이나 차별의 의도 없이 발생할 수 있으며, 그것은 이미 구축된 기성질서에서 만들어진 사회구조, 규범, 절차들에서 비롯된다고 본다. 둘째, ‘일정한 피해집단에 발생하는 차별적 결과’에 간접차별의 개념을 포착하는 관점은, 간접차별은 직접차별에서 차별표지가 아닌 ‘중립적 표지’를 기준 삼아 직접차별의 효과를 발생시키는 것을 뜻한다고 한다.
이와 같은 간접차별의 개념은 인공지능으로 발생할 수 있는 차별적 의사결정의 모습과 매우 유사하다.
왜냐하면 인공지능 알고리즘은 과거 데이터에 상당 부분 기반하고 있으므로 기존의 차별을 새로운 질서에서 구조화시킬 수 있으며, 금지된 차별의 요소를 다른 변수로 대체함으로써 직접차별과 같은 차별적 효과를 만들 수 있기 때문이다.
인공지능의 차별적 의사결정과 간접차별
인공지능 의사결정시스템의 대표적인 예로 정부기관이 운영하는 행정복지시스템을 생각해보자. 이는 개인에게 경제적 필요, 의료지원 등이 요구되는 시기에 예상하던 혜택을 허용하거나 거절하는 결정을 내놓을 수 있는데, 여기서 머신러닝 알고리즘은 데이터를 분석, 학습하여 데이터세트 간의 상관관계를 표현한 도식이다.
머신러닝은 과거에 누적된 데이터를 바탕으로 새로운 데이터의 값을 분류하거나 클러스트 단위로 집단화(clustering)시킴으로써, 수급후보자를 평가하고 수급 여부를 심사한다. 또한 머신러닝 알고리즘의 예측능력은 수급후보자를 특정 요소로 분류하고 가중치를 적용하여 미래의 위험률을 예측할 수 있다. 이러한 예측모델에는 인공지능통제자의 차별적 의도가 포함될 수 있고, 직접차별의 요소가 되는 차별요소 대신에 ‘중립적 표지’를 대리변수로 취할 수 있어서 문제가 된다.
데이터와 인공지능의 의사결정에 미래사회를 우려하는 데이터 분석가인 캐시오닐(Cathy O’neil)은, ‘모형이란 수학에 삽입된 의견’이라고도 한다. 그에 따르면 수학적 모형은 예측모델에 큰 영향을 미치는 것에만 초점을 맞춰 보여주기 때문에 추상적이고, 결과값에 영향을 미치는 변수는 설계자에게 달린 것으로 일반에게 공개되지 않을 수 있다. 여기서 우리는 대리변수의 은폐 가능성을 생각해볼 수 있다.
이와 같은 맥락에서 최근 국내외 법학연구는 인공지능 머신러닝의 차별의도와 그것이 대리변수 등으로 은폐되는 현상에 집중되어 논의되고 있다. 그러나 이는 직접차별의 성립에 차별 의도를 요구하는 미국의 차별 법리에 국한된 문제일 수 있다. 우리 헌법재판소는 차별적 취급을 판단함에 있어서 차별의도를 고려하지 않으므로 인공지능이 차별적 의사결정을 은폐하거나 대리변수로 대체하는 문제가 우리 법리의 수정을 요구할 것인지는 면밀한 검토가 필요하다. 특히 머신러닝 기술에 대리변수의 치환이 간접차별로 우회하는 경향이 실제로 빈번해지더라도, 입증책임의 전환으로 보완될 수는 없을까?
기존에 우리 사회에는 평판 있는 통계예측 결과를 신뢰하는 경향이 있다. 그러나 그것은 과거에 누적된 데이터의 속성에 근거한 수학적 예측결과라는 점에서 미래를 예측하는 하나의 가설에 지나지 않는다. 그런데도 미래에 인공지능 알고리즘에 대한 신뢰나 권위가 높아지는 상황이 온다면, 과연 누군가 인공지능 의사결정이 내린 예측결과를 거부하는 것이 가능할 것인지 반박하게 된다면 어떤 방법으로 반박할 것인지에 대한 준비가 필요하다.
인공지능 알고리즘의 데이터 경로의존성
인공지능과 차별을 다루는 선행연구들은 인공지능의 차별의 원인을 머신러닝이 인간의 과거에서 누적된 행위를 답습·강화시키는 문제에서 찾는다. 그런데 인공지능으로 인한 차별이 기존의 차별과 차별성을 갖는 지점은 어딜까? 인공지능으로 인한 차별이 기존의 차별행위와 차별성을 가질 때, 이 쟁점이 법적 논의로 실익을 갖는다. 인공지능이 인간의 의사결정에서 나타날 수 있는 우려는 데이터에 대한 인공지능 알고리즘의 경로 의존성(path-dependence)이 딥러닝의 학습결과로 차별을 심화시킨다는 전제에서 출발한다. 경로의존성은 편향된 데이터를 통해 고착된 차별적 결정이 반복되면서 이후에 더 강화되는 차별의 폐해를 낳을 것이다.
인공지능의 의사결정의 차별적 취급의 문제는 빅데이터의 문제이기도 하다. 빅데이터가 인공지능과 결합할 때, 빅데이터 분석에 의한 경로의존성, 편향이 가속·강화되어 인공지능의 위험성을 가중시키는 현상이다. 지금까지는 인공지능의 훈련데이터가 과거에 형성된 것이고, 인공지능이 기존의 인습과 편견에 따라 경로의존성을 더 강화할 수 있다는 견해가 설득력을 얻고 있다. 다만 인공지능이 기존의 차별을 양적으로 증폭시키거나 강화하게 된다고 하여 차별의 형태가 달라지는 것은 아니라는 점에서 인공지능의 차별적 취급을 새로운 법적 위험으로 볼 수 있는지 따져봐야 한다. 생각건대, 법적으로는 이미 있던 빅데이터의 편향 문제가 인공지능 기술을 만나 증폭되고 가속화되었다고 보는 것이 타당한 해석이 아닐까 한다. 이러한 의문을 남겨두면서 이어서 다음의 논의를 계속하도록 한다.
인공지능의 활용으로 인한 사인 간 법적 차별
근래 우리나라에서 차별문제가 사회적으로 민감한 이슈로 제기되는 반면 차별금지에 관한 일반법이라고 할 만한 법률은 없다. 따라서 차별로 인한 행위로부터 평등권을 보호하는 방식은 법적으로는 헌법상 평등 원칙에 따라 판단되는 것이 전부라고 해도 될 것 같다. 향후 인공지능을 누가 통제하고 활용하느냐에 따라서 인공지능과 차별의 문제는 기업과 개인 간, 개인과 개인 간의 사적 영역에서도 제법 활발한 토의의 주제가 될 것 같다. 이때 사인 간의 관계가 헌법상 기본권인 평등 원칙이 개별 법률에 정함 없이도 적용될 수 있을지가 문제가 된다. 즉 인공지능의 의사결정으로 인하여 개인이 재판상 헌법상 기본권인 평등권을 근거로 권리침해를 주장할 수 있는가에 관한 문제이기도 하다.
사인 간의 관계에서도 헌법상 기본권을 적용해 이를 근거로 판결을 내릴 수 있다는 논리는 ‘기본권의 대(對)사인효’라는 법리이다. 기본권의 대사인적 효력문제를 인정하는 것에는 견해대립이 있지만, 이를 인정하는 입장에서는 기본권을 재판의 직접근거로 원용할 수 있다는 ‘직접적용설’과 기본권은 개별 규정을 매개로 재판에 적용될 수 있다는 ‘간접적용설’이 있다. 평등권은 과연 사법관계에 직접 적용될 수 있는 기본권일까?
대법원은 서울기독교청년회에서 성별(여성)을 이유로 총 회원 자격심사에서 여성회원을 배제한 것을 두고 인격적 침해로 인한 손해배상책임을 청구한 사건에서, “평등원칙에 의한 사인 간의 차별금지에 관한 문제는 사적자치의 원칙 또는 (단체의 경우) 결사의 자유를 제한하는 것이기에 차별적 처우가 사회공동체의 건전한 상식과 법 감정에 도저히 용인될 수 있는 한계를 벗어난 경우에 사회질서에 위반되는 경우 위법한 것으로 평가할 수 있다”는 입장을 보였다. 이 경우에는 평등권을 보호하기 위해서 개별적인 입법이 필요하지 않으며, 민법상의 일반조항을 매개함으로써 인격적 법익침해에 대한 손해배상의 형태로 구체화될 수 있다고 하여 손해배상책임을 인정할 수 있다고 보았다.
일반적인 모든 사안에 적용할 것은 아니지만, 이 사건에서 대법원은 사인 간 평등권 내지는 평등의 원칙에 대해서 민사적인 구제수단을 열어두게 된 것이다. 인공지능의 의사결정으로 인한 사인 간 평등의 침해와 차별적 취급에 관한 분쟁을 대비해 헌법상 기본권이 평등의 원리가 법해석의 원칙으로 적용할 수 있는 해석론과 법리가 미리 준비되면 좋을 것이다.
참고문헌
헌재 2014. 2. 27. 2011헌마825, 결정문(전원재판부), 2.
이준일,「차별 없는 세상과 법」, 홍문사(2013), 30.
김하열,「헌법강의」, 박영사(2018), 344.
필자의 박사 학위 논문과 몇몇의 인공지능과 자기결정에 관한 논문들