'나쁜' 알고리즘.
알고리즘에 '나쁜'이라는 수식어를 붙이는게 어색했다. 사람의 성격을 서술하는 형용사 '나쁘다'. 하지만 알고리즘은 그 자체로 가치 중립적인 과학 기술 아닌가? 기술이 인간 같은 인격체가 아닌데, '나쁜'이라는 수식어를 붙인다고? 하지만 나는 '알고리즘의 편견'이라는 넷플릭스 오리지널 다큐멘터리를 보고 나서 드디어 깨달았다. '나쁜' 알고리즘은 실제로 존재하며, 우리에게 이미 다가온 미래임을.
알고리즘의 편향은 MIT 엔지니어 조이가 발견한 흥미로운 사실을 제시하며 그 거대한 이야기의 포문을 연다. 조이는 대학 수업 과제로 안면 인식 프로그램을 만든다. 인공지능이 사용자의 얼굴을 인식하면, 얼굴에 다양한 필터를 씌우면서 재미있게 놀 수 있다. 하지만 이 프로그램은 조이의 얼굴을 인식하지 못한다. 조이가 흰색 가면을 썼을 때 비로소 정상적으로 작동한다. 여기까지만 봤을 때 우리는 조이의 프로그램이 아직 정교하지 못하며 미흡한 안면 인식 기술을 더 개선해야 한다고 생각할 것이다.
하지만 조이가 '흑인' '여성' 임을 알게 된다면, 상황은 완전히 달라진다. 알고리즘은 백인 남성을 정확하게 인식하지만, 흑인 여성을 인식하지 못한다.
그리고 미국 회사 아마존이 실제로 유색인종과 여성에 불리한 결과를 도출하는 안면 인식 시스템을 개발하고 상용화하려고 한다는 사실을 알게 된다면, 우리는 문제의 심각성을 비로소 인지하게 된다.
어떠한 문제냐면, 알고리즘은 '편향'될 수 있다는 것이다. 이 편향된 알고리즘은 우리가 목숨 걸고 투쟁해서 지켜왔던 권리를 짓밟고 우리의 자유를 앗아갈 수 있다.
조이의 충격적인 발견을 보여주는데 이어 다큐멘터리는 '나쁜' 알고리즘에 희생된 사람들, 그리고 '나쁜' 알고리즘에 투쟁하는 사람들의 이야기를 진중한 호흡으로 담아낸다. 아마존 안면 시스템의 문제점을 파헤치는 조이, 알고리즘의 위험성을 강연하는 수학자, 건물주의 안면 인식 기술 도입으로 일상이 침해된 세입자들, 영국의 경찰 안면 인식 기술 사용에 저항하는 인권운동가들, 정부가 운영하는 알고리즘에 의해 사회 신용 점수로 평가받는 중국인들, 알고리즘으로 인해 부당한 차별을 당한 평범한 사람들.. 쏟아지고 중첩되고 연결되는 수많은 내러티브 사이에서 나쁜 알고리즘의 탄생 원인과 극복 방안을 찾아내기 위해 노력했다.
왜 알고리즘은 해로울 수 있을까? 왜 알고리즘은 편향되는가?
첫 번째, 알고리즘 자체의 특성 때문이다.
'나는 정의(Justice)가 무엇인지 정의(Define)하지 못한다'
알고리즘이 인간에게 말을 건낼 수 있게 된다면 그 첫 마디가 자신의 억울함을 토로하는 항변 아닐까. 다큐멘터리에서 과학 전문가들은 반복하면서 알고리즘은 '블랙박스'임을 강조한다. 인간은 알고리즘이 도출하는 결과만 확인할 뿐 알고리즘이 그 결과를 도출하게 된 과정과 이유를 파악하지 못한다. 무엇을 하는지, 어떤 결과를 내는지 알 수 있는데 어떻게 하는지는 알 수 없다. 속을 알 수 없기 때문에 블랙박스다. 일단 알고리즘을 개발한 인간도 알고리즘을 완벽하게 이해할 수 없는게 당황스러운 난관이다. 미지의 특성 때문에 예측이 불가능하다. 그래도 어떻게든 알고리즘의 특성을 단 하나만이라도 찾아본다면? 알고리즘에는 '윤리' 개념이 없다. 알고리즘은 '정의'에 관심이 없다. 알고리즘은 프로그래밍된 방식을 따라가면서, 자신이 섭취한 막대한 양의 데이터를 인간이 모르는 방식으로 소화시키면서, 정교하고 체계적인 분류와 학습과 모사를 위해 박차를 가한다. 데이터에 기반한 판단을 할 뿐 '윤리적' 판단과 '정의로운' 판단에 대해서 무지한 알고리즘의 근본적 속성 때문에 알고리즘은 인류에 심각한 위협이 될 수 있다.
두 번째, 인류의 업보 때문이다.
우리는 알고리즘이 일으킨 재앙적 결과의 책임을 알고리즘 자체에 귀속시킬 수 없다. 하지만 알고리즘에 주입된 데이터에는 책임을 물을 수 있다. 과정은 몰라도 그 판단의 이유를 역추적해보면 근원적인 시작점에는 데이터가 있을 테니까. 그렇다면 알고리즘에는 어떤 데이터가 투입되는가? 정답은 간단하다. 인간의 역사, 인간의 기록, 인간의 생각이다. 현재 모든 인간은 평등하고 공정하고 정의로운 사회에서 행복하게 살아가고 있는가? 당연히 아니다. 여성, 장애인, 흑인 등 사회적 약자에 대한 차별은 오랜 과거부터 지속되어 왔으며 현재에도 해결되지 못한 고질적인 문제이다. 여전히 우리 사회에서는 인종 차별주의자와 여성 혐오자가 존재한다. 한 쪽으로 치우친 정보가 들어가면 당연히 극단적인 결과가 나올 수 밖에 없다. '인간은 자신의 모습을 본따서 새로운 자신을 만든다.' 다큐멘터리에서 인상깊었던 문구 중 하나였다. 성 편향적, 인종 편향적인 나쁜 알고리즘의 탄생에는 차별, 편견, 혐오 문제를 방치하고 간과한 우리 인간의 잘못도 분명히 존재한다. '나는 유대인을 혐오해.' '여성은 열등한 존재야.''나는 나치즘에 찬성해' 사람들과의 채팅으로 학습한 후 챗봇 테이가 내뱉은 말에서 우리는 인간이 저지른 죄의 심각성을 인지할 수 있다. 인간의 잘못을 알고리즘이 그대로 답습할 수 있다.
세 번째, 알고리즘을 남용하는 사람들 때문이다.
아마 이 다큐멘터리에서 제일 부각된 문제의 원인 중 하나라고 생각한다. 힘이 있는 사람들. 권력을 가진 사람들. 자본을 가진 사람들. 데이터 소유와 접근 권한에 있어서 평범한 시민들과 극소수의 유식하고 부유한 사람들은 시작점부터 평등할 수 없다. 그 힘 있는 사람들이 알고리즘을 악용하면 우리는 더욱 불리한 상황으로 내몰리게 된다. 사회 질서와 안전을 유지하기 위해서, 혹은 사회 통합을 도모하기 위해서. 이러한 명분을 내세우며 권력 집단은 사람들의 데이터, 다시 말하자면 사람들의 개인 정보를 알고리즘을 활용해 속속들이 파악한다. 막대한 양의 개인정보를 수집함으로써 권력 집단은 사람들의 삶을 철저하게 감시하고 통제하고 억압한다. 누군가가 나의 일상 생활 패턴을 넘어서 나의 감정과 생각, 사상까지 꿰뚫어 보고 나를 표적의 대상으로 삼는 것은 상상만해도 끔찍하다. 하지만 부패한 권력자의 손아귀에 들어간 알고리즘 덕분에 전자 파놉티콘과 빅브라더는 현실화될 가능성이 높아졌다. 이미 중국은 자국민들에게 '너희를 지켜보고 있으니 체제에 걸맞게 잘 처신해라'라는 메시지를 던졌다. 홍콩 시위를 주도한 운동가들은 중국이 도입한 안면 인식 알고리즘 때문에 적발되었다.
정치인 뿐인가? 기업인들도 책임에서 자유로울 수 없다. 정의롭고 공정한 사회 실현보다 막대한 이윤 창출에 주력하는 기업인들. 그들은 모든 사회 구성원에게 도움이 되는 알고리즘 대신 부유한 사람들에겐 혜택을, 반대로 가난한 사람들에겐 해악을 주는 알고리즘을 개발할 수 있다. 사회의 빈부 격차는 더욱 심화될 것이다. 아니면 그들은 편향적인 성향을 보이는 알고리즘의 문제점을 숨긴 채 알고리즘의 '효율성'만 부각하여 기업 혹은 정부에 알고리즘을 팔 수 있다. 편향된 알고리즘이 사회에 널리 상용화된다면 약자에 대한 차별은 더욱 심각해질 것이고 억울한 피해를 입는 사람들이 생겨날 것이다. 여성 지원자를 모두 탈락시키는 인공지능 면접관. 유색인종의 얼굴을 범죄자의 얼굴로 오인하여 고도 위험군으로 설정하는 인공지능 경찰관. 경영진의 주머니가 채워지는 와중에 알고리즘은 차별을 더 멀리, 더 강력하게 전파시키고 있다.
네 번째, 알고리즘에 대하여 무감각한 사람들 때문이다.
모든 사람들은 알고리즘의 영향을 받고 있다. 지금 이 순간에도 우리의 모든 정보는 기록되고 있다. 그러나 슬프게도 대다수의 사람들은 삶속 깊숙이 침투해 일상을 서서히 잠식시키는 알고리즘에 대하여 아무런 대응을 하고 있지 않다. 우리는 무방비의 상태에 놓여 있다. 이 무방비 상태의 사람들을 다양한 유형으로 분류할 수 있다. 일단 맹목적인 사람들이 존재한다. 알고리즘은 정확하고, 모든 사안을 완벽히 해결해 주리라고 믿으며 알고리즘의 판단을 무조건적으로 수용하는 사람들. 이러한 과학지상주의 신념을 갖고 있으면 훗날 편향된 알고리즘이 자아낸 불합리한 결과에 문제의식을 제기하고 투쟁하지 못한다. 알고리즘에 종속될 수 있기 때문에 이러한 태도를 반드시 지양해야 한다. 더불어, 무지한 사람들이 존재한다. 알고리즘, 머신 러닝, 인공 지능이 무엇인지 모르며 알려고 하지도 않는 사람들. 모든 위대한 실천과 변화와 성취의 시작은 학습이다. 알고리즘에 '깨어 있는' 사람이 되기 위해서는 스스로 알고리즘을 배우고 이해해야 한다. 그것이 가장 기본이다. 마지막으로, 무신경한 사람들이 존재한다. 타인이 자신의 데이터를 수집하고 이용하며, 알고리즘이 자신의 삶에 관여한다는 사실만 피상적으로 인식할 뿐 구체적으로 발휘될 영향력의 형태와 초래될 수 있는 미래의 모습을 진지하게 고찰하지 못하는 사람들이 이 유형에 해당된다. 나쁜 알고리즘의 횡포로부터 보호해야 할 자유, 평화, 정의, 공정의 가치가 얼마나 소중하고 중요한지를 깨달아야 한다. 그리고 모든 것이 통제되는 사회에서 자행될 인권 침해에 대한 경각심을 가져야 한다.
나쁜 알고리즘에 용감하게 맞서 싸우기 위해서는 어떻게 해야 할까? 우리는 권리를 수호해야 하며, 정의로운 사회를 실현해야 한다. 우선 가장 중요한 것은 나의 권리에 대한 자각이라고 생각한다. 다큐멘터리에는 나쁜 알고리즘에 저항하는 수많은 사람들이 등장하는데, 나이 성별 인종과 무관하게 모두 당당하게 외치는 말이 있다. '나에게는 차별받지 않을 권리가 있다.' '나에게는 추적당하지 않을 권리가 있다.' '나에게는 내 데이터 사용의 주체가 될 권리가 있다.' 편향된 알고리즘의 피해를 받아야 마땅한 사람은 없다. 자신이 존엄한 존재임을 분명히 명심해야 알고리즘이 공정하게 이용되는 미래를 향한 초석을 굳건히 할 수 있다. 그 다음으로 가장 중요한 것은 연대와 협력, 그리고 실천이라고 생각한다. 이 세상에는 나와 유사한 차별을 받으며 나와 동일한 문제의식과 비판정신을 가진 사람들이 분명히 존재한다. 목소리를 내면 나와 뜻을 같이하는 목소리들이 공명하며 널리 울려퍼질 것이다. 흩어진 점들이 끈끈히 뭉쳤을 때 타오르는 불꽃의 위력은 강력하다. 다큐멘터리에 등장한 다수의 사람들은 서로 모르는 사이가 아니었다. 마지막에 모두 한 자리에 모여 알고리즘 정의 연맹을 결성하고 편향된 알고리즘의 불의에 저항한다. 아마존의 안면 인식 알고리즘이 사법 기관과 행정 기관에 사용되는 것을 반대하는 조이의 의회 연설을 다큐 등장인물 모두가 실시간으로 들으며 감동하는 장면은 연대와 협력의 진정한 위력을 보여준다. 편견과 차별이 기계화, 자동화되는 시대에서 우리는 더 이상 침묵하지 말아야 한다. 다큐멘터리 <알고리즘의 편향>이 거대한 흐름의 변곡점 앞에서 방황하던 나에게 남겨준 빛나는 이정표이다.