brunch

You can make anything
by writing

C.S.Lewis

by COMMA MAGAZINE Dec 09. 2023

[Editor’s Pick]알고리즘은 정말 공정한가요?

알고리즘의 편견


모든 일과가 끝나고 침대에 누웠습니다. 여느 때와 다름없이 유튜브를 틀어 추천 동영상을 시청하죠. 어제 보던 유튜버의 다른 콘텐츠군요. 동영상을 보다 지루해질 때쯤 하단의 쇼츠 버튼을 누릅니다. 그런데 신기하게도 불과 몇 분 전에 무신사에서 봤던 옷을 추천해 주는 영상이네요. 우리는 이것을 감탄하지만 대수롭지 않게 넘깁니다. 그리곤 다시 유튜브를 시청하죠. ‘이것’은 무엇일까요? 당연하게도 알고리즘입니다.  

    

출처: ⓒ gettyimagesbank



알고리즘은 일상 속 다양한 부분에서 편리함을 제공합니다. 유튜브나 온라인 쇼핑에서 사용자의 취향에 따라 추천해 주는 것은 물론, 여러 운송수단의 GPS에서 수집된 실시간 교통 정보를 바탕으로 목적지까지의 최단 거리를 제공합니다. 뿐만 아니라 금융, 의료, 환경, 범죄 예측 등 각 분야에서 알고리즘을 활용하여 데이터를 분석하고 의미 있는 정보를 추출합니다. 그렇다면 이러한 알고리즘은 과연 공정할까요?    

 


출처: 넷플릭스 다큐멘터리 영화 <알고리즘의 편견>



사실은 그렇지 않습니다. 샬리니 칸타야 감독의 다큐멘터리 영화 <알고리즘의 편견(2020)>에서는 인공지능에 대한 맹목적인 믿음을 경계하고, 알고리즘이 가진 편향성과 위험성을 감시해야 한다고 말합니다. 다큐멘터리에서는 MIT 연구원, 조이 부올람위니가 안면 인식 소프트웨어에서 이상한 점을 발견합니다. 해당 인식 기술에서 흑인 여성의 얼굴을 제대로 인식하지 못했던 것이죠. 그녀는 충격을 받은 나머지 AI 프로그램을 테스트해 본 결과 피부색이 밝을수록, 남성일수록 인식 정확도가 높아진다는 것을 밝혀냈습니다. 결국 알고리즘이 인종과 성별에 의한 차별을 담고 있었던 거죠.     



출처: 넷플릭스 다큐멘터리 영화 <알고리즘의 편견>


인공지능은 데이터에 기반하고, 데이터는 우리의 역사를 반영합니다. 결국 알고리즘은 인간의 무의식적인 편견과 차별을 학습하죠. 이렇게 편향된 데이터로 학습한 알고리즘은 결국 불공정한 의사결정을 하거나 권리를 침해하는 오류를 범하게 됩니다. 예시로 미국 캘리포니아대 연구진에 따르면 의료 AI가 흑인 환자들에게 맞춤형 처방을 덜 제공하는 경향이 있다고 밝혔습니다. 실제 흑인 환자들은 백인 환자보다 연간 1,800달러(210만원)어치의 치료를 덜 받았다고 합니다. 흑인은 백인보다 덜 아프리라는 의사의 편견을 알고리즘이 학습한 것이었죠.      



인간은 알고리즘이 도출한 결과만 확인할 뿐 알고리즘이 결과를 도출하게 된 과정과 이유를 파악하지 못합니다. 이러한 ‘검증 불가능성’은 알고리즘의 치명적인 약점이죠. 그렇기 때문에 알고리즘을 무조건적으로 신뢰하는 것도, 무비판적으로 수용하는 것도 옳지 않습니다. 사회는 알고리즘의 판단에 대한 설명을 요구할 권리를 보장하는 법제도를 만들어야 합니다. 또한 개인은 알고리즘이 공정하고 정확하다는 믿음, 그 믿음에서 파생된 의존성을 버려야 합니다. 그리고 일상생활에 침투한 알고리즘을 자각하고, 알고리즘에 ‘깨어있는’ 사람이 되어야 합니다.      



편리하지만 편견을 가지고 있는 알고리즘. 편리함에 속아 편향됨을 잊는다면, 훗날 편향된 알고리즘이 자아낸 불합리한 결과에 우리는 문제의식을 가질 수 있을까요? 무엇이 문제인지도 모르는 것이 문제가 되겠죠. 결국 알고리즘에 종속되는 무지한 인간이 될 것입니다. 당신은 과연 ‘편리’와 ‘편향’ 중 어느 것에 집중할 것인가요? 여러분의 답에 따라 세상은 달라질 것입니다. 



작가의 이전글 [Marketer's Pick] 크리스마스 포토 스팟
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari