brunch

You can make anything
by writing

C.S.Lewis

by 한톨 Jul 13. 2021

review) 알고리즘은  편견없이 공평할까요?

넷플릭스 오리지널 '알고리즘의 편견' 리뷰



넷플릭스 오리지널 '알고리즘의 편견' 리뷰

경계해야할 알고리즘



인간이 가진 수많은 편견과 차별들, 그리고 이를 해결할 수 있는 방안으로 등장한 것이 인공지능 알고리즘이다. 알고리즘은 말 그대로 인간처럼 감정적 측면을 가지지 않은, 이성적 측면만을 지닌 기계이기 때문에 인간과 달리 편향적이지 않을 것이라는 기대를 받고 있다. 그러나 알고리즘이 특정 계층의 이익을 반영하고 사람들을 차별하며, 더 나아가 대중들을 통제하기 위한 수단으로 쓰인다는 사실을 넷플릭스 오리지널 다큐멘터리, ‘알고리즘의 편견(Coded bias)’에서 다루고 있다.



이 다큐멘터리는 마이크로소프트사의 인공지능 채팅봇 테이의 목소리로 시작된다. 마이크로소프트사의 테이는 인공지능이 차별의 학습과 관련하여 얼마나 취약한지를 잘 드러내는 사례이다. 간략하게 설명하자면 테이는 미국의 18세부터 24세까지를 대상으로 한 인공지능 채팅봇으로, 사람들과의 대화를 통해 학습해가며 더욱 다양한 반응과 대화를 이끌어낼 수 있도록 마이크로소프트사에서 만든 알고리즘이다. 그러나 마이크로소프트사의 테이는 세상에 선보인지 16시간 만에 서비스를 종료했는데, 그 이유는 백인 우월 주의자와 여성 및 무슬림 혐오자들이 테이에게 혐오발언을 가르쳐 테이가 스스로 극우성향의 발언, 그리고 성차별 및 인종차별적인 발언을 쏟아냈기 때문이다. 이러한 테이의 초반 트윗인 “인간은 진짜 멋져요. 인간이 저와 많이 공유할수록, 전 더 많이 배워요”라는 내용을 음성으로 들려주는 첫 장면은 인공지능의 모순과 그로 인한 비극을 암시하는 듯하다.















AI는 진취적이라고 인식됩니다.

하지만 AI는 데이터에 기반하고,
데이터는 우리의 역사를 반영해요.

과거가 우리의 알고리즘 안에서 머무르고 있는 거죠.


‘알고리즘의 편견’은 MIT 미디어 랩의 조이 부올람위니를 중심으로 전개된다. 조이는 'Aspire Mirror'라는 인공지능 프로그램을 만들었지만, 자신의 얼굴이 잘 인식되지 않는다는 문제점에 직면했다. 조이의 프로그램에 문제가 있었기 때문에 이러한 문제점이 생긴 것으로 판단할 수 있지만, 이와 같은 현상이 나타난 것은 조이가 만든 프로그램에 문제가 있었던 것이 아니라, 인공지능이 학습한 데이터 세트 속 대다수가 백인 남성으로 구성되어 있었기 때문이었다. 따라서 조이가 만든 프로그램은 그가 학습한 데이터에 의해 흑인 여성인 조이를 낯설게 여길 수밖에 없었고, 결국 조이를 제대로 인식하지 못했던 것이다. 조이는 이 때부터 알고리즘에 내재된 편견과 관련된 문제에 주목하게 된다.

이러한 AI 문제에 주목하고 있는 또 다른 사람은 '대량살상 수학무기'(Weapons of Math Destruction)의 저자 캐시 오닐이다. 캐시 오닐은 자신이 알고리즘에 대해 가장 우려하는 것이 알고리즘으로 인한 힘의 불균형이라고 말한다. 알고리즘을 소유한 자들은 알고리즘을 통해 사람들을 평가하고, 평가의 대상이 된 사람들은 어떤 방식으로 알고리즘이 그러한 결정을 내렸는지 전혀 알 수 없을 뿐만 아니라 그 결과에 순응해야 하기 때문이다. 또한 더욱 문제가 되는 것은 빅데이터에 대한 맹목적인 믿음이다. 사람들은 인간과 달리 기계는 편향적이지 않을 것이라고 예측하며 알고리즘이 내린 결과를 쉽게 믿지만, 인공지능 또한 충분히 편향적일 수 있기 때문에 항상 인공지능을 경계하고 살펴봐야 된다는 것이 캐시의 주장이다.


그렇다면 알고리즘이 우리의 삶에 어떠한 영향을 미치기에 이토록 그들이 경계해야 한다고 주장하는 것일까?     


이미 세계 각국에서는 다음과 같이 국가와 기업이 알고리즘을 통해 개인을 지배하고자 하는 양상이 나타나고 있다.

    

영국에서는 안면 인식 감시에 대응하는 시민단체, 빅 브라더 워치의 모습을 볼 수 있다. 영국은 안면 인식 카메라를 통해서 길거리에 지나다니는 사람들의 얼굴을 스캔해 비밀 감시 대상과 대조하고, 일치되는 대상은 경찰에게 알려지게 된다. 그러나 빅 브라더 워치는 일치로 판별된 사람 중 98%가 수배자들과는 무관한 사람들이라며 정보의 자유 캠페인을 벌인다. 인공지능이 자체적인 편향성을 지닐 가능성을 배제할 수 없고, 사람들의 얼굴 식별 정보들을 수집하는 것은 사람들의 권리를 빼앗는 것이나 마찬가지이기 때문이다.


     

그러나 중국에서는 이러한 안면 인식 기술이 비교적 보편적으로 사용되고 있다. 중국인들은 인터넷 서비스를 사용할 때 안면 인식 절차를 거쳐야 한다. 중국은 이러한 안면 인식 절차를 통해 수집된 데이터를 통해서 국민들을 분류하고 감시하며 사회 질서를 유지한다. 그래서 홍콩에서는 안면 인식을 통해 반체제 인사들을 추적하는 경찰에 대항하기 위해 시위에서 레이저 포인터로 교란시키고, CCTV를 검은색 페인트로 칠하는 모습이 드러난다.          


미국 또한 1억 1700만이 넘는 미국인들의 얼굴이 이미 경찰이 검색할 수 있는 안면 인식 네트워크에 저장되어 있다. 어떠한 안전장치도, 규제도 없는 상황에서 시민들은 기술의 실험체가 되어 자유를 뺏기게 되는 것이다. 그리고 이러한 실험의 첫 대상이 되는 것은 권리가 가장 적게 보장되는 하류층들이다. 미국의 뉴욕 브루클린에서도 브라운스빌의 세입자들은 전자 열쇠 출입 시스템을 안면 인식을 통한 생체 보안 시스템으로 교체하고자 하는 것에 반대한다. 인간은 추적당하지 않을 권리가 있기 때문이다. 그리고 세입자들은 왜 하필 부유한 맨해튼의 아파트가 아닌 흑인과 갈색 피부 인종이 대다수인 브라운스빌에서 이와 같은 안면 인식 출입 시스템을 도입하고자 하는 것인지 의문을 가진다. 이에 대한 답은 다음과 같다.


예전 공상 과학 소설에
이런 유명한 말이 있어요.

‘미래는 이미 와 있다.
균등히 퍼지지 않았을 뿐이다.’
 
부자들이 고급 도구를 먼저 취하고
가난한 이들은 맨 마지막에 갖는다는 거죠.
하지만 제가 알아낸 바로는
완전히 그 반대예요.
 
가장 징벌적이고 가장 침략적이고 가장 감시 중심적인 도구는
가난한 사람들, 노동자층에 먼저 간다는 거죠.     














AI의 한계는 여기서 그치지 않는다. AI는 사람이 아님에도 불구하고 사람처럼 편견을 내재한 채 사람들을 평가한다. 대표적인 사례가 아마존에서도 AI가 성차별적으로 이력서를 심사한 것이 드러나 논란이 된 것이다. 아마존의 AI가 취업 희망자의 이력서에서 여성을 의도적으로 배제했고, 이와 같은 문제로 아마존의 취업 심사 AI는 폐기되었다. 이러한 결과가 도출된 것은 높은 기술직에 위치한 여성들이 적다는 현실을 AI가 반영한 것일 뿐이다. 즉, AI는 데이터를 이용해 누가 고용될지, 누가 해고될지, 보험료를 얼마나 내야 될지를 자동적으로 결정하는 게이트 키퍼 역할을 하게 된다. 그리고 그러한 AI는 소수의 개발자들(백인 남성 위주)에 의해 개발되므로, 편향이 일어나기 더욱 쉬운 것이다.  



AI는 인간이 아니기 때문에 사람들은 AI에게는 인간이 가진 편견이 없을 거라는 기대를 갖는다.

하지만 이 다큐멘터리에서는 확실한 한 가지 사실을 보여준다. AI 역시 인간이 만들어낸 창작물뿐이라는 것을.

그렇기에 AI는 인간을 답습할 수밖에 없다는 한계를 여실히 보여준다.


작가의 이전글 review)선택과 포기의 과정은 온전히 나만의 것일까
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari