인공지능 모델의 젠더 편향성에 대한 경계

대연군의 인공지능 생각노트 - 인공지능 뉴스를 읽고 생각을 적습니다.

by Dave

https://www.technative.io/avoiding-gender-bias-in-ai/?jwsource=cl


우리는 인공지능의 모델에 젠더 편향성을 경계해야 한다.

우리는 AI 모델을 만들때, 현실에 이미 존재하고 있는 정보들을 학습시킴으로써 모델링 한다. 그말은 현실에 이미 존재하는 바이어스가 학습되면, 이를 그대로 반영한 모델 역시 필연적으로 바이어스를 가지게 된다는 것이다. (Garbage in, garbage out) 특히나, 젠더와 성소수자 그 밖의 소외된 계층에 대한 정보들이 그렇다. 정보는 지배자의 중심에서 쓰여질 수 밖에 없기 때문이다. Women in Cloud 커뮤니티 멤버인 Microsoft 의 Stacy Tatem 은 인공지능의 젠더 바이어스를 경고했다.


학습 데이터의 바이어스에 따른 잘못된 모델이 만들어지는 것을 우리는 어떻게 막을 수 있을까? 우선 우리는 학습 데이터를 선정하는 모델이 먼저 필요하다. 데이터를 분류하는 작업을 통해 우리는 젠더 혹은 성소수자에 대한 편견과 잘못된 감정을 표현하는 문장과 정보들을 구분해 낼 수 있을 것이고, 이러한 잘못된 데이터가 새로운 모델을 생성하는데에 영향을 주지 않도록 조치 할 수 있을 것이다.


CleanShot 2020-08-07 at 10.55.57.png 영화 메멘토


나는 이 주제에 대해 생각하다보니 메멘토라는 영화가 떠올랐다.

나는 이 주제에 대해 생각하다보니 메멘토라는 영화가 떠올랐다. 나의 기억을 스스로 편집함으로서 내가 의도한 미래를 본인도 모르게 만들어가는 메멘토의 주인공 말이다. 바이어스를 제거하는 것은 분명히 바람직한 행동이다. 그러나 그 모델이 과연 우리의 현실에서 완전한 모델이 될 수 있는가에 대한 의문도 들었다. 왜냐하면, 그 과정에서 우리가 예상치 못했던 또다른 바이어스가 개입될 수도 있기 때문이다. 동시에 사이드 이펙트의 발생도 무시할 수 없지 않을까 하는 생각도 들었다. 결국, 인공지능 역시 필연적으로 인간에 의해 만들어진 불완전한 도구라는 점을 생각하게 만든다.


그러나 몇 세기 동안 이어져온 여성에 대한 그리고 사회적 약자에 대한 인류의 바이어스를 스스로 제거하려는 인식이 시작되었다는 것 자체만으로도 인류사의 위대한 진보 중 하나다. 특히나, 강력한 인공지능의 시대가 도래한 때에, 초기 부터 이러한 우려를 발제하고, 관심을 만들어가는 것은 매우 중요하다고 생각한다. 어쩌면 인공지능은 우리도 몰랐던 세상의 바이어스를 깨닫게 도와주는 역할을 하게 될지도 모른다.