brunch

You can make anything
by writing

C.S.Lewis

by 이종구 Dec 12. 2023

인공지능의 편향성(偏向性)

이종구 박사의 다양성 칼럼

인공지능(AI, Artificial Intelligence)을 쉽게 구분하여 이야기할 때, 크게는 ANI(Artificial Narrow Intelligence)와 AGI(Artificial General Intelligence)로 나뉠 수 있다. 우리가 잘 아는 머신러닝(Machine Learning), 즉 기계학습 기반의 ANI는, 산업 전반에 적용되어 많은 긍정적인 영향을 주면서 우리 사회와 사람들의 생활을 윤택하게 해주고 있다. 한편 AGI는 인간과 유사한 지능을 가지면서 상상할 수 없는 속도와 데이터의 양을 처리할 수 있는 인공지능이다. 불과 수년 전만 해도, AGI는 아직 먼 이야기라며 전문가들마저 손사래 치는 개념이었다. 즉 사악하고 영민한 인공지능 로봇이 인간의 주권을 뺐고 지배하는 공상 소설처럼, 현실성이 없어 보였다. 하지만 ChatGPT로 대표되는 생성형 AI가 등장하여 각종 화제를 일으키고 있는 요즈음, 많은 사람이 그 인간다움에 놀라면서도 인간 지능에 다가가는 AGI도 이제 먼 얘기가 아님을 실감하고 있다.      

출처: www.gettyimagesbank.com/view/two-young-affectionate-girls-looking-at-you-with-smiles

이런 상황에서 다른 한편에서는 오랫동안 인공지능의 부정적인 문제로 지적된 바이어스(Bias), 즉 편향성 문제가 다시 대두되고 있다. 사실상 진짜 문제는 이러한 편향성으로 인해 발생하는 차별이다. 2020년에 트위터의 이미지 자르기, 즉 Crop 알고리즘의 편향성 문제가 제기되었다. 그것은 ‘백인과 흑인 두 장의 사진이 한 게시물에 있을 때, 트위터 알고리즘은 모바일앱에서 자동으로 백인 얼굴만 보여주는 경우가 많다’라는 것이다. 이 사건은 2015년에 발생했던 구글포토의 악명높은 ‘고릴라 사건’을 상기시킨다. 그것은 이미지를 자동으로 분류하는 알고리즘이, 흑인 커플을 고릴라의 범주로 분류했던 사건이다. 이 사건들은 인종차별적 알고리즘의 편향성 때문에 발생한 것이고, 2015년부터 제기된 문제가 최근까지도 별다른 진전이 없다는 것을 증명한다.      

출처: image.chosun.com/sitedata/image/201507/03/2015070300217_0.jpg

AI 기술의 편향성은 현존하는 사회적 차별과 깊은 관계가 있다고 최근 어느 논문이 지적했다1. 지금까지 축적되고 현재 발생하고 있는 차별이, AI 학습을 위한 데이터와 알고리즘 설계에 반영되면서 AI의 편향성이 더 커지게 된다는 것이다. 또한 편향적인 AI가 작동하면서, 그 기술이 정당화되고 그러면서 기존의 차별을 강화한다. 이것이 바로 AI의 편향성과 사회적 차별의 악순환 관계이다.  여기서 중요한 문제는 차별이 발생할 때, 인간이 이를 감지하기 어렵다는 것이다. 또한 인간의 개입과 통제가 어려울 때, AI 시스템은 맹목적인 자율성으로 그 부정적인 영향력을 강력하게 발휘한다. 그리고 인간이 직관적으로 이상하다고 느끼는 일에 대해서도 달리 반응하지 않고, 자체적으로 편향성을 줄이거나 차별을 중단하려고 노력하지도 않는다.     


그러면 기술적이든 인위적이든 이러한 AI의 편향성을 줄이는 기술적인 방법이 있을까? 해당 논문의 저자는 먼저 AI 시스템 차원에서 다음과 같은 대응 방안을 제시한다. 

첫째, 데이터 편향성을 줄이기 위해서, 데이터 편향에 대한 인간의 책임을 강조하는 것이다. 즉 데이터의 수집, 선별, 훈련용 데이터세트의 구성 및 검증 등 데이터에 관한 전체 과정에서, 인간의 책임과 의무를 강화하는 것이다.

둘째, 알고리즘 차원의 편향성을 줄이는 노력이다. 이것은 AI의 기술적인 불투명성에 대응하는 방식이기도 하다. 즉 알고리즘을 블랙박스화하지 않고, 가능한 한 이해 가능한 방식으로 설명할 수 있게 만드는 것이다. 이것이 요즘 AI 기술에서 화두가 되는 투명성(Transparency)과 설명 가능성(Explainability)을 의미한다. 

셋째, AI 시스템을 활용할 때 인간의 자율성을 강화하는 것이다. AI 시스템의 주된 목적 중 하나가, 기존에 인간이 수행한 작업의 상당 부분을 자동화하는 것이다. 그러나 인간이 의사결정 과정 전부를 자동화하면, AI 시스템의 편향성과 차별을 발견하기가 어렵다. 그래서 AI에 인간의 의사결정을 위임하는 것에는 신중해야 하고, 무엇을 얼마나 위임할 것인지를 항상 인간의 몫으로 남겨야 한다는 것이다.     


AI의 편향성을 줄이는 문제에 관하여, 다음으로는 AI에 직, 간접적으로 관련이 있는 산업 관계자를 알아본다. AI 산업 관계자는 AI 편향성 문제에 가장 직접적인 영향을 주는 집단이다. 앞서 언급했던 대응책도, 이들이 먼저 그 문제성을 자각해야만 효과가 있다. 왜냐하면 그들은 AI의 라이프사이클 모든 단계에 영향력을 행사하기 때문이다. 예를 들면 수집된 데이터에서 학습을 위한 훈련 데이터세트를 선별하거나, 검증 데이터를 선별하는 일, 편향을 인지하고 그것을 줄이는 알고리즘을 설계하는 일 등이 해당한다.      

출처: www.aitimes.com/news/articleView.html?idxno=134664

그러면 AI 산업 관계자의 측면에서 AI 편향성 문제를 생각할 때, 무엇을 중요하게 생각해야 할까? 그것은 바로 AI 산업계 내의 다양성 증진이다. 2020년에 IBM의 데이터‧AI 부문 부사장은 언론과의 인터뷰에서 이런 말을 했다. “AI 분야에서 편견과 편향을 없애기 위해서는, AI 관련 종사자들의 다양한 관점이 필요합니다. 그리고 더 많은 여성 인력이 AI 분야에 진출하고, 다양성이 증대되어야 합니다"라고 말했다. 사실상 대부분의 대규모 AI 시스템은 세계적 규모의 기술 회사 몇몇에 의해서 주도된다. 여기에 근무하면서 연구 개발에 몰두하는 사람들은 대개 부유하면서 높은 수준의 교육을 받은 남성이고, 이들은 주로 기술적인 부분에만 집중한다.     

AI Now Report라는 보고서가 있는데, 매년 AI의 사회적 이슈를 다룬다. 2019년 AI Now Report에서는 다음과 같은 지적을 했다. ‘우리 사회의 편향성이나 차별 그리고 다양성의 문제가, AI 시스템과 전체 AI 산업계, 그리고 나아가 모든 소비자에게도 똑같이 영향을 준다’고 말했다. 즉 AI가 이미 역사적인 차별이나 불공평의 문제를 안고 있다는 것이다. ‘바이어스는 우리의 데이터세트에만 있는 것이 아니라, 우리의 콘퍼런스와 공동체에 있다.’고 보고서는 말한다2.     


사실상 AI 산업계 내에서 다양성 문제는 2013년부터 이미 본격적으로 제기되었다. 그 이후, 구글, 마이크로소프트, IBM, 애플 등 주요 기술 기업들이 꾸준히 다양성에 대한 보고서를 내놓았다. 초창기의 보고서는 주로 기술 분야나 고위직에 여성 및 유색인종 등 소수집단이 어떻게 구성되어 있는지와 같은 내용이 중심이었다. 그런데 이후에는 다양성의 가치를 적극적으로 추구하면서, AI 기술의 편향성이나 차별을 줄여야 한다는 내용을 다루기 시작했다. 

출처: www.gettyimagesbank.com/s/?lv=&st=union&mi=2&q=1331135412&ssi=renew_go

그러면 과연 주목할 만한 결실을 얻었을까? 2020년에 IBM이 발간한 Global Women in AI 보고서에서 설문조사를 실시했는데, 캐나다, 미국, 유럽, 인도 등지의 AI 전문가 3,221명 중에서 85%는, 최근 AI 산업에서 다양성이 증진되었다고 답했다. 그리고 91%의 응답자는 이러한 다양성 증대가 AI 기술에 긍정적인 영향을 미치고 있다고 평가했다3. 그리고 이들 주요 기술 기업들은 AI 시스템 또한 다양성을 증진하도록 개발하고 있다고 주장한다. 물론 앞에서 언급했던 편향성 관련 사고가 여전히 터지고 있는 현실이지만, AI 기술 자체로 오히려 인간의 편향을 탐지해 사태를 개선 시킬 수 있다는 것이다. 그래서 최근 IBM은 ‘다양성과 포용 강화를 위한 편향성 경감에서 AI의 역할’이라는 보고서를 냈는데, 여기서 AI가 인간의 의식적·무의식적 편향성을 경감하는 도구로도 활용될 수 있다고 주장한다.     


그러나 이러한 주요 기술 기업 외에 다수의 사례와 학계의 얘기는 여전히 AI 산업계에서 다양성은 실제로 증진되지 않았고, 불공정한 편향과 차별이라는 근본적인 문제 역시 실질적으로 개선되지 않았다고 말한다. 아직도 AI 산업계를 비롯하여 전반적인 사회의 ‘다양성 위기(Diversity Crisis)’는 현재형이라는 것이다.     


생성형 AI로 대표되는 ChatGPT의 등장으로, 여러 산업 분야와 사회 전반이 변화하고 있다는 것을 실감한다. 사실상의 새로운 AGI 시대가 서서히 열리고 있다. 조만간 여러 생성형 AI가 등장하고, 다양한 영역에서 엄청난 힘을 발휘하면서 생산성과 속도를 몇 단계는 끌어올릴 것이라고 기대한다. 하지만 이러한 긍정과 동시에 윤리와 다양성의 측면을 고려하지 않을 수 없다.

출처: www.gettyimagesbank.com/s/?lv=&st=union&mi=2&q=1324970796&ssi=go

AI의 다양성 문제는 AI 시스템의 편향성과 사회적 차별 문제의 반복적 인과관계라고 볼 수 있다. 즉 계속되는 사회적인 차별은 AI 시스템의 차별을 재생산하고, 이 현상이 고착화되는 문제다. 이것은 결국 편향성이 없는 AI 시스템을 요구하면서, 동시에 적극적으로 다양한 이해관계자를 반영하고 포용해야 한다. 즉 AI 시스템이 기술적으로 다양성을 확보하는 것이 우선으로 중요하고, 또한 사회구조적으로 불공정한 편향과 오랜 차별을 바로잡을 때, 진정으로 문제 해결이 가능할 것이다. 



참고문헌

1. “인공지능 시스템의 다양성 논의, 그 의미와 확장’”, 허유선, 중앙대학교, 2021

2. AI Now 2019 Report, 2019

3. “다양성 증대가 AI 발전 원동력...AI전문가 85% 응답”, AI Times, 2020.05.07 

작가의 이전글 역(逆)멘토링: 세대 다양성의 실천원칙
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari