brunch

You can make anything
by writing

C.S.Lewis

by 이종구 Dec 04. 2019

인공지능이 다양성과 무슨 관계가 있나요?

이종구 박사의 다양성 칼럼

인공지능이 점점 우리의 일상과 밀접해지고 있다. 수년 전 인공지능 바둑으로 대표되는 알파고와 모 유명 바둑 기사와의 한판 싸움에서 알파고가 승리했던 사건이, 우리가 인공지능의 능력을 실감했던 큰 계기였던 것 같다. 그 이후로 기계가 인간을 지배할 것이라는 상상과 가상의 논리들이 쏟아져 나오고, 인공지능이 많은 일들을 대체하면서 오래지 않아 실직자들이 거리에 넘칠 것 같은 기세였다.


2016년에 미국 백악관에서 발간한 ‘인공지능의 미래에 대한 대비(Preparing for the Future of Artificial Intelligence)’라는 보고서에서도 인공지능을 활용한 자동화 기술로 인해 시급 $20이하 직업의 83%가 사라질 것이라고 예측했다.    


출처: Automotive Electronics, 2018.03.


사실 인공지능의 활용분야는 꽤 넓다. 우리가 매일 접하는 인터넷 포털이나 소셜미디어, 통신과 홈어시스트 분야, 건강과 예술 분야, 여행, 범죄예방에 이르기까지 각종 생활 서비스에 지속적으로 도입되고 있다. 이쯤에서 한 가지 중요한 질문이 생긴다. 만약 이렇게 유용한 기술에 고의든 아니든 바이어스(Bias)가 존재한다면 무슨 일이 일어날까? 좀 더 구체적으로, 인공지능의 설계나 응용 개발에 특정 부류의 연구자만이 참여하여 무의식적인 바이어스가 내재되어 있다면 우리 생활에 어떤 영향을 미칠까?


이 SF와 같은 질문에 관련하여 최근에 인공지능 설계 전문가인 팀닛 게브루(Timnit Gebru)의 인터뷰 기사가 눈길을 끌었다. 그녀는 왜 인공지능 기술에 바이어스가 생기는지 또한 어떻게 대응해야 할지를 주제로 논의했다. 필자도 바이어스 즉 편견은 다양성을 인정하고 수용하는데 싸워야 할 최대의 적이라고 이미 다른 칼럼을 통해 말한 적이 있다. 편견과 싸우기 위해 때로는 자기의 생각도 포기해야 한다고 말이다. 특히 그녀의 인터뷰는 다양성 문제와 신기술과의 직접적 관계를 주제로 다루었기 때문에 큰 관심이 간다.


먼저 왜 인공지능에 바이어스가 생길까? 사람의 근본적인 속성 때문이다. 사람은 의식적이든 무의식적이든 고유한 바이어스를 갖고 있다. 인공지능 설계자들도 마찬가지다. 설계하는 사람들 자체가 다양하게 구성되지 않으면 그들이 설계한 인공지능 모델 또한 바이어스가 생길 수 있다. 결국 인공지능은 모든 사람들을 대변하는, 즉 일반화된 모델이 더 이상 될 수 없다. 이 사실은 인공지능이 우리의생활을 편하게 해주기도 하지만, 반대로 이른바 ‘자동화 된 바이어스’가 범람하여 우리 생활에 큰 위협이 될 수도 있다는 말이다.


그러면 인공지능 모델의 바이어스를 최소화하기 위해 어떻게 해야 하나? 설명을 위해 약간의 전문적인 기술 용어들을 써야하는 불가피함을 독자들은 이해해주기 바란다. 크게 두 가지 설계 모델을 따라야 하는데, 하나는 모델 안에 데이터 세트, 즉 다양성에 해당하는 속성 정보들을 다각화하고, 다른 하나는 설계자 집단을 다양화하는 방법이다. 이 두 가지 과정을 모두 따라야 포괄적인 모델을 설계할 수 있다.


한 가지 방법론으로 인종이나 성별, 세대 등과 같은 다양성의 속성 데이터에 서로 다른 관련된 주석들을 만들어서 다각화한다. 그리고 그 모델을 지속적으로 여러 서브그룹들을 대상으로 테스트하여 최적의 모델을 찾아내는 방법이다. 또 다른 방법론으로는 파일럿 테스트를 해보는 것이다. 그것은 본 프로젝트를 진행하기 전에 소규모의 임시 테스트 모델을 만들어, 어떤 바이어스가 있는지 또는 잠재적인 위험 요소가 있는지를 미리 확인하는 방법으로 매우 유용하다.


하지만 문제는 여전히 존재한다. 무엇보다도 인공지능의 실용에 대한 명확한 표준(Standard)이나 가이드라인이 없다는 것이다. 예컨대 잠정적인 위험을 초래할 수 있는 정보들은 인공지능에 적용되지 못하도록 제한하거나, 어떤 특정 업무에는 정확도가 얼마 이상이 되어야 적용할 수 있다는 등의 기준이다. 그렇지 않으면 무적의 인공지능이 와일드한 인간 세계에서 어떤 활개를 치고 다닐지는 아무도 모르는 일이다.    


Timnit Gebru          (출처: MIT Technology Review)


팀닛은 인터뷰에서 이렇게 말했다. “2016년에 제가 신경 정보처리 시스템 학회(Neural Information Processing Systems, NIPS)의 멤버로 본격적인 활동을 시작했을 때, 누군가 이 단체에는 8500명의 멤버가 있다고 하더군요. 그런데 그 중에 흑인은 고작 저를 포함해 6명이었죠. 앞으로 이 분야는 급격하게 성장할 것이고 사회의 모든 요소요소에 영향을 줄 것입니다. 8500명중에 6명이라는 사실만으로도 이 단체는 다양성을 얘기할 자격조차 없지요. 그래서 저 혼자라도 뭔가를 해야 한다고 생각했습니다. 왜냐하면 지금은 비상 상황이기 때문이지요.”     


현재 인공지능의 바이어스와 표준 문제를 두고 기술적인 노력도 시도하고, 여러 단체나 기업들도 다양성 문제를 놓고 고민한다고 하지만, 얼마나 심각하게 중요성을 인지하고 있는지는 아직도 의문이다. 사실상 진짜 문제는 인공지능 분야가 계속 성장하여 인간 생활의 전반으로 자리를 잡은 후에 생길 수 있다. 그 때 바이어스 문제로 인한 사고가 발생하면 쉽게 수습하지 못하는 상황에 이를 수도 있다. 마치 전체 은행의 전산망이 동시에 문제가 생기면서 모든 경제생활이 멈추는 것처럼 말이다.


대부분 신기술이 나오면 법과 윤리에 관한 사항은 잘 다룬다. 그런데 다양성의 문제는 거의 신경 쓰지 않는 것 같다. 우리는 지금 인공지능의 다양성 위기에 직면해있다. 인공지능을 그저 우리 생활을 편리하게 해주는 하나의 기술로만 치부하지 말고, 이제라도 다양성의 일반화된 모델을 갖추도록 뭔가를 대비해야 할 때다.     

작가의 이전글 경험은 절대로 늙지 않아요!
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari