머신러닝 시스템의 편향성과 관련된 논쟁
Duke University에서 개발한 PULSE AI Photo Recreation Model - Barack Obama 대통령의 저해상도 사진을 고해상도 사진으로 바꿔주면서 백인 남성으로 만들어서, '백인 얼굴로의 편향성' 이슈가 되었죠 - 의 Bias를 두고 Brad Wyble (Penn State Univ.), Timnit Gebru (Google) 등과의 논쟁 (또는 대화) 끝에 Yann LeCun (FAIR, Turing Award Winner)이 '트위터를 그만두겠다'라고 선언했네요. 아래 링크의 기사에 자세한 내용이 나와 있습니다:
https://syncedreview.com/2020/06/30/yann-lecun-quits-twitter-amid-acrimonious-exchanges-on-ai-bias/
Yan LeCun이 Turing Award를 공동 수상한 다른 두 분 대비 비교적 자신의 정치적 견해를 - 특히 소셜 플랫폼이라는 맥락에서 - 드러내는데 거침이 없는 편이기는 했는데, 이번 논쟁은 여러 가지 생각할 거리들을 던져주는 것 같습니다.
머신러닝 시스템을 윤리적으로 편향성 없이 운영하기 위해, 개발과 관리의 전 과정에 관여하는 다양한 이해관계자 - 데이터 사이언티스트, 인공지능 연구자, 엔지니어, 비즈니스 사용자 등 - 에게 어떤 역할과 의무를 부여해야 할까요?
분명한 것은, Yann LeCun이 이야기한 것처럼 '머신러닝 시스템은 데이터에 편향성이 있을 때 편향적으로 작동한다'는 말만으로는 '현실 세계의 문제'를 해결할 수 없다는 것입니다. 머신러닝 시스템의 연구, 개발, 운영 관리, 그리고 사용에 이르기까지 전체의 흐름에 참여하는 모든 이해관계자가, 특정 Use-Case의 맥락 하에서 편향성에 대한 정책적 가이드라인과 Tolerance, 그에 따른 전략, 리스크로서의 편향성에 대한 거버넌스, 편향성을 제거하기 위한 연구와 데이터 처리뿐 아니라 엔지니어링 관점의 접근 등을 균형 있게 진행해야 할 것입니다.
NeurIPS의 경우 2020년 컨퍼런스부터 논문 저자들이 'Broader Impact'라는 섹션에 '논문 연구 결과가 윤리적, 사회적 관점에서 미칠 수 있는 긍정적, 부정적 영향을 기술하라'고 하고 있는데, 이와 관련해서도 저희 Element AI 연구자들 사이에서도 '연구자들에게 지나친 부담이다 vs. 그렇지 않다, 구체적으로 어떤 내용을 어디까지 적어야 하느냐, 이런 내용이 논문 심사 결과에 어떤 영향을 줄 것이냐' 등 논의가 한창입니다. 앞으로 다른 주요 인공지능 컨퍼런스에도 이런 흐름이 확산될 것으로 예상하고요.
Ethical AI의 문제는 그 연원이 오래되기는 했지만, 실세계에서의 진전은 상대적으로 기술 자체의 발전 대비 더디다는 느낌을 지우기가 힘듭니다. 수많은 가이드라인이 있지만 대개의 경우 아주 High-level의 선언적인 수준에 머물러 있는 경우가 많아, 결국은 다양한 실제 Use-Case를 놓고 Regulator, Private Sector, 3rd Party Provider 등이 함께 구체적인 측정 방법과 측정치, 구현 기술 등에 대한 논의와 테스트를 해 보면서 고쳐나갈 수밖에 없을 것 같습니다.