#육아하면서_백권읽기
두 번째 책으로 캐시 오닐이 쓴 <대량살상 수학무기>를 골랐다. 저자는 수학자이자 데이터 과학자이다.
설명 가능 인공지능에 관한 기사를 쓰려다 이 책에까지 손을 댔다.
미국에선 인공지능과 알고리즘이 누군가의 범죄 위험성이 높다고 판단하거나 우리 회사가 원하는 인재상과 거리가 멀다고 분류하거나, 신용점수를 평가해 대출을 거부하거나 대학의 순위를 정한다.
성과 인종, 정치적 견해 등에서 인간의 편견을 극복해 공정성을 꾀할 수 있다는 점을 장점으로 내세운다.
책은 그런 또 다른 '편견'을 고발한다. 알고리즘에도 인간의 편견이 들어가 있고 자동화된 편견은 대량살상 무기처럼 민주주의를 위협하고 불평등을 키운다는 것이다.
편견만이 아니라 모형에 입력되는 데이터도 문제다. 범죄 위험성을 짐작하기 위해 그 사람이 거주하는 지역의 우편번호(미국에선 지역에 따른 소득차가 심해 우편번호만으로도 소득 수준을 짐작할 수 있다고 한다)나 주변 지인들의 범죄 유무, 처음 검거된 나이 등을 조사한다.
지금 현재 범죄 위험성을 판단할 근거가 없으니 관련이 있을 것이라고 짐작하는 '대리 데이터'를 이용하는 것이다. 흑인들은 대체로 소득이 낮아 빈민가에 거주할 확률이 높고 경찰은 이런 빈민가에 더 많은 경찰력을 투입한다. 결국 흑인들은 자신이나 친구, 친척들이 청소년기 때부터 불심검문을 당해 경범죄로 붙잡힐 확률이 높다. 부유한 지역의 백인 청소년들이었다면 걸리지 않고 넘어갔을 일도 흑인 청소년들에겐 이후 인생을 결정하는 변수가 된다.
일부 미국 법원들이 인종적 편견을 없앤다며 이런 모형을 도입했지만 실상은 흑인들에게 불리한 것은 마찬가지다. 인간의 편견을 '블랙박스'와 같은 기술에 감춘 것에 불과하다.
신용평가점수도 그렇다. 가난하다고 대출 연체 가능성이 높다고 판단해 금리를 올리면 빈곤의 굴레에서 벗어나지 못하고 더 가난해지는 악순환에 빠질 수 있다. 부정적인 피드백을 저자는 알고리즘이 위험한 이유의 하나로 언급했다.
이력서 심사도 비슷하다. 백수 시절 산업은행에 지원하는데 이력서에 부모 직업, 소득을 넣는 항목이 있었다. 대체 이걸 왜 넣을까. 부모의 학력이 높고 가계 소득이 높은 직원들이 금융사고를 일으킬 가능성이 낮다고 판단해서일 수도, 영향력 있는 계층의 자녀들이 취업해야 사업에 유리하다고 판단해서일 수도 있다.
이력서에 종종 기입하라고 되어 있는 해외 어학연수 경험도 소득 수준을 짐작할 수 있는 대리 데이터로 활용될 수 있다. 만약 인공지능이 각 항목을 점수화한다면 해외 연수 경험이 없는 저소득 백수들은 그렇지 않은 지원자들보다 불리해진다. 물론 이건 인간이 심사할 때와 차이가 없다. 다만 이 과정이 자동화되면서 더 빨라지고 인간 심사였다면 고려했을 법한 상황들도 무시된다.
공정성을 높인다고 하지만 얼마든지 알고리즘 안에 차별적 요소를 집어넣을 수 있다. 기업들이 영업비밀이라는 이유로 공개하지 않고 검증되지 않으면 모를 일이다.
불평등을 자동화하는 것은 알고리즘에 따른 '개인화' 추천 서비스도 마찬가지 아닐까. 요즘 사용자가 늘어나는 OTT 서비스는 개인의 성향을 분류해 개인을 하나의 '부족'으로 분류하고 그 부족들이 좋아할 만한 영화들을 추천한다. 추천 영화들로 영향력 있는 대형 제작사나 배급사의 블록버스터급이 먼저 제시되지 않을까.
네이버 뉴스 편집도 그럴 가능성이 높다. 네이버는 공정성 시비를 알고리즘의 역할을 확대하는 방향으로 해결하려 한다. 알고리즘에 맡기되 중간에 인간이 개입하는 형태가 될 것 같다.
알고리즘이 현재 어떤지 모르겠지만 짐작으론 뉴스가 처음 출고된 시간이 주요한 요소가 되지 않을까 싶다. 뉴스의 독창성을 판단하는 하나의 대리 데이터이기 때문이다. 속도에서 아무래도 빠를 수밖에 없는 통신사 기사들이 대량으로 배치된 이후 남은 자리에는 이름 있는 주요 언론사의 기사들이 들어가지 않을까. 가짜 뉴스에 대한 우려가 높아지니 '신뢰성'을 높일 수 있는 방안으로 택할 수 있다. 작은 언론사들, 1인 미디어나 블로거들이 뉴스 시장에 들어갈 틈은 바늘구멍처럼 좁아진다. (가정에 가정을 더하다 보니 틀릴 수도 있다. 여기선 그냥 가능성 정도를 이야기하는 거다.) 뉴스 편집을 알고리즘에 맡긴다고 해도 현재도 그렇듯이 공정성 시비에서 자유로울 수 없다.
답은 내가 생각하기에 네이버가 뉴스 서비스를 포기하는 거다. 물론 그럴 수 없을 것이다. 그렇다면 대안은 현재 운영하는 언론사별 채널로 100% 바꾸는 것이다. 언론사들은 자사 뉴스 편집을 알고리즘에 맡길 만큼 세련되지 않았다. 대부분 기자들이 일일이 중요도를 평가해서 뉴스의 자리와 노출 제목을 결정한다.
이렇게 공들인 편집은 알고리즘보다 느리고 효율성이 떨어질 수 있다. 랭킹 할 때 실수해 제목과 다른 기사가 노출될 수도 있다. 그러나 최소한 언론사들은 불만이 없다. 자기들이 편집했으니. 그리고 독자들이 자기가 원하는 언론사 채널만 구독한다면 독자들이 제기하는 공정성 시비도 줄어들 것이다.
저자는 알고리즘의 부정적인 면만 언급하지는 않았다. 아동학대 방지 모델, 복지 정책이 필요한 수요층 조사 등 좋은 목적에서 활용해 좋은 결과를 얻을 수 있다.
중요한 것은 알고리즘을 공정성을 위한 도구로 맹신해선 안 된다는 것이다. 알고리즘이 내린 판단이 잘못됐을 경우 이에 이의를 제기하고 인간의 개입을 요구하고 설명을 요구할 수 있어야 한다. 또한 알고리즘에 의한 자동화된 불평등이 우려된다면 이미 있는 제도 속의 불평등과 편견을 없애려는 노력이 함께 있어야 한다. 알고리즘에도 이런 것들이 반영되기 때문이다.