AI를 무조건 신뢰할 수 있을까
초등학교 때 엄마, 아빠의 후원 <?>으로 영국에 있었다. 잠시 런던에서 지내게 되면서 자연스럽게 영국을 상징하는 많은 상징물을 접하게 되었다. 런던의 이층 버스, 런던탑, 웨스트민스터 사원 등을 자주 접하였다. 하지만 11살짜리 초등학생에겐 런던의 수많은 광경보다는 친구들과 포커 게임을 치는 게 훨씬 재미있게 느껴졌나 보다. 런던의 버킹엄 궁전이 어떻게 생겼고 무슨 의미가 있으며 왜 중요한지 전혀 알지를 못해서 그때의 기억이라곤 포커 게임만 선명하다.
시간이 지나 영국 드라마 '튜더스'를 보고 다시 런던에 갔다. '튜더스'는 헨리 8세를 중심으로 벌어진 세기의 스캔들을 다룬 드라마이다. 자연스럽게 여왕들이 참수형을 당했던 런던탑부터 런던 곳곳의 장소들이 나온다. 내가 가본 영국 장소들을 드라마에서 보여주고 다뤄주니 새삼 그 장소들이 다시 보였다. 게다가 드라마를 보고 다시 런던에 찾아가니 마치 천년의 역사를 다시 밟는 묘한 기분이 들었다. 역사적으로 애한이 담긴 가보고 수백 년 왕가를 이은 장소도 찾아가니 다시 세계사 책을 들춰볼 정도로 관심이 생겼다. 장소는 그대로이지만 나의 수많은 정보와 지식이 누적되면서 이 장소가 갑자기 중요한 장소가 되어버린 셈이다.
우리는 자신이 알고 있는 지식을 중요하게 생각하고 중요한 것만 인식을 하게 된다. 때론 기억을 각색하기도 한다. 없는 사실을 있는 것처럼 착각하기도 한다. 그렇다면 과연 인간이 공정하다고 이야기할 수 있을까? 아는 만큼 인식을 할 수 있다면 모르는 것들에 대해 과정과 결과가 공평하게 이뤄질 수 있을까? 뇌 구조 자체가 본인이 중요하게 생각하는 것만큼 인식을 할 수 있기에 사실상 정보의 편중이 일어나는 순간 공평하게 판단을 하기가 어렵다. 공평하기 위해서는 모든 정보가 공정하게 배분이 돼야 한다. 의도적으로 정보를 공평하게 습득하기 위한 개인의 노력이 필요하다.
그렇다면 기계는 어떠할까? 아마존은 AI로 채용 과정을 도입하였지만 여성 지원자에게 편견을 보였다. 2018년 이력서에 남성들이 기술 경험에 더 많이 포함되어 있고 실제 근무자 역시 남성들이 더 많다 보니 자연스럽게 여성 지원자는 탈락하는 사태를 불러일으켰다. 모든 기계, 디지털 휴먼은 수많은 데이터를 살펴본 뒤 데이터 안에서 패턴을 찾는다. 예전 합격자들을 통해 과거 어떤 사람들이 조직 생활에 긍정적이었는지, 우수한 사원들의 특징이 무엇인지 패턴을 살펴볼 수밖에 없다. 만약 이런 패턴에 '인종'까지도 범주에 넣게 된다면 유색인종이나 여성은 자연스럽게 배제가 될 수밖에 없다.
구글 이미지는 흑인 남성을 고릴라로 분류하는 사태도 발생하였다. 미국에서는 미래의 범죄 위험을 평가하는 소프트웨어에서 흑인에 대해 고위험군으로 분류하는 보고서가 발행되기도 하였다. AI의 편향된 문제로 크고 작은 문제가 계속 발생하고 있지만 대부분 기계 알고리즘 오류로 발견을 하면 해결을 하며 진화해 나가고 있다.
편파적인 데이터로 인한 패턴화 된 알고리즘은 건강, 주택, 신용뿐만 아니라 앞으로의 가능성에 대해서도 일정 부분 결정을 내릴 수 있다. 당연스레 기존 수많은 데이터에 집중을 할 수밖에 없고 잘못된 데이터의 경우 채용 시 탈락을 하거나, 축구 중계 시 심판의 대머리와 축구공을 착각하여 계속 어지럽게 카메라를 비추거나 하는 등 치명적인 결과를 불러일으킬 수밖에 없다.
결국 편파적인 데이터로는 편파적인 패턴을 만들 수밖에 없다는 것을 인정하고 '공정하지 않은 기계'를 위한 보정 작업이 필요하다. 큰 범주에서 편파성은 3가지로 구분할 수 있다. 1) 그룹 귀인 편향, 2) 내재적 편향 3) 포함 편향이다.
그룹 귀인 편향은 자신이 소속된 집단을 더 우호적으로 바라보는 편향이다. 본인이 공유하는 특성을 지닌 그룹을 더 선호하는 형태를 그룹 귀인 편향이라고 본다.
내재적 편향은 자신이 그동안 만든 정신적 모델과 개인의 경험을 바탕으로 가정한 편향이다. 자신의 생각 범주에서 판단하는 편향을 의미한다. 나는 부하에게 배신당한 상사라고 생각할지 모르지만 사실은 내가 부하를 배신한 상사일 수 있다. 내가 어느 범위로 어떤 관점으로 바라보느냐에 따라 달라지지만 대게 자신이 만든 신념과 자아에 귀인하여 편향을 만든다.
포함 편향은 가장 대표적인 데이터라고 뽑았지만 실제 선정한 데이터 세트가 대표성을 띄지 않는 데이터로 지정되어 편향이 발생하는 경우이다.
이런 문제에 대해 보정을 하기 위해 많은 기업들이 기계의 편파성을 인정하고 기계의 윤리성에 대해 관심을 기울이고 있다. 선다 피차이 구글 CEO는 인종, 성별, 국적, 정치, 종교, 소득 수준에 부당한 영향이 끼치지 않도록 AI의 윤리성에 대해 고민할 것이라 발표를 하였다. 편파성 보정을 위해 구글 번역기에서 성 중립적인 단어를 입력할 경우 기존에는 남성형으로 해석되었던 것이 남성, 여성형으로 보정되어 보여주는 방식으로 개선하고 있다.
채용 시 특정 성별, 인종에 유리하도록 패턴화 한 것들을 보완하기 위해 자기소개서의 텍스트를 갖고 분석하는 형태로 최근에 진화하고 있다. AI가 공정하게 평가를 하고 예측을 하기 위해서는 데이터 자체가 공정하게 유입되거나 AI 알고리즘이 고도화되어 단순 과거 데이터로부터 패턴 추출이 아닌 문맥 상 의미를 이해하는 데까지 진화가 이뤄져야 가능하다. 그렇지 않다면 AI는 편향적이라는 사실을 받아들이고 좀 더 공정함을 추구할 수 있는 방안으로 추가적인 보완 작업이 선행돼야 할 것이다.
AI에 지배당한다는 것은 의심 없이 무차별적으로 AI의 의견이나 추천에 잠식당하는 상태라고 생각한다. AI, 디지털 휴먼을 하나의 도구로서 활용하기 위해서는 AI가 만든 이야기의 출처는 무엇이고 왜 이런 대답을 하는지에 대해 한번쯤 의심하고 정당 한 지에 대한 판단이 선행돼야 할 것이다.