알고리즘과 공존하는 인류의 첫 걸음

미 의회, '알고리즘 책무성 법안' 발의

by 전창영

2016년, 미국의 오바마 행정부는 거대기술기업들이 활용하는 인공지능 알고리즘이 인종차별과 성차별 등 사회적 편견과 왜곡을 심화시킬 가능성이 있음을 경고한 바 있다. 당시 미국 연방거래위원회는 잘못된 데이터를 학습한 인공지능 알고리즘의 부작용을 우려하고, 정책적 대응의 필요성을 주장하였다. 이는 인공지능 알고리즘을 기반으로 한 의사결정이 편향적이고, 사회적 소수를 차별할 가능성을 내재하고 있음을 의미했다. 다시 말해, 알고리즘은 구축 단계에서부터 인간의 판단이나 선택이 적용되기 때문에 본질적으로 불공정하고 편파적이라는 것이다. 기술적, 그리고 제도적으로 알고리즘의 책무성과 투명성을 제고하기 위한 논의가 필요한 이유다.

이러한 논의의 본질은 대부분 거대기술기업들이 소비자들에 대한 세밀한 고려가 부족하다는 것에서 시작된다. 어쩌면 그들은 알고리즘이 사람들을 잘못 판단하고 해석해 이들을 ‘부적절한’ 집단으로 분류함으로써 여러 기회를 박탈할 수 있다는 사실을 알고 있을지도 모른다. 그러나 대부분의 경우, 그들은 자신들의 오류에 무감각하거나 의도적으로 외면하는 것으로 보인다. 이러한 이유로 우리는 개인이든 기업이든 누가 알고리즘을 만들었는지, 알고리즘을 통해 성취하려는 목표가 무엇인지에 대해 기술적 차원과 제도적 차원을 동시에 점검하고 감시해야 한다.


이 같은 맥락에서, 2019년 4월 론 와이든(Ron Wyden) 미국 상원의원이 대표 발의한 ‘알고리즘 책무성 법안 (Algorithm accountability bill)’은 시사하는 바가 크다. 페이스북, 아마존, 구글 등 거대기술기업들의 끝없는 프라이버시 침해와 지속적인 스캔들로 인해 그들의 평판이 얼마나 추락했는지를 보여주는 결과물이기 때문이다. 비록 해당 법안이 현재 미국 의회의 정치적 구조 하에서 채택될 가능성은 실질적으로 매우 낮지만, 다가오는 2020년 미국 대선에 있어 거대기술기업들의 존재와 역할이 핵심 이슈로 부상할 가능성을 높게 평가하는 정치권의 시각으로 해석할 수 있다. 아울러 이를 둘러싼 국제적 관심 역시 지속적으로 증가할 것을 예상할 수 있다. 세계적으로 다양한 분야의 전문가들이 문제의식을 가지고, 인공지능이 실제로 얼마나 강력한지 발견하고 이해함에 따라 알고리즘을 규제하려는 논의를 활발하게 진행할 것이기 때문이다.

이미 영국과 프랑스 등 유럽 국가들은 거대기술기업들에게 알고리즘에 대한 책임을 묻기 위한 유사법안을 통과시킨 바 있다. 예컨대, 2016년 유럽연합(EU)은 개인정보보호규정(GDPR: General Data Protection Regulation)시행을 통해 알고리즘 규제에 대한 본격적인 논의를 촉발하였다. 이처럼 최근 본격적으로 알고리즘에 대한 문제들이 지속적으로 제기되고 있는 국제적인 맥락에서 인공지능 분야의 세계 선두주자라고 할 수 있는 미국이 이번 ‘알고리즘 책무성 법안’ 발의를 통해 알고리즘 규제에 대해 보다 적극적인 의지를 드러낸 것은 시사하는 바가 크다.


불과 몇 년 전만 하더라도, 미국 의원들은 알고리즘을 규제할 생각이 없는 듯 보였다. 그러나 이번에 제출된 법안에는 알고리즘을 규제하지 않음으로써 발생하는 결과들이 우리 삶에 커다란 영향력을 행사하고, 직접적인 위험을 초래할 수 있다는 우려와 고민의 흔적이 고스란히 담겨 있다. 앞으로 미국 의회에서 거대기술기업들을 규제하기 위한 구체적이고 광범위한 논의를 지속적으로 진행할 것으로 보인다.



[사진1]법안 관련 보도자료.PNG ‘알고리즘 책무성 법안’ 발의 관련 보도자료
[사진2]법안 첫 페이지.PNG ‘알고리즘 책무성 법안’ 원본 첫 페이지



‘알고리즘 책무성 법안’은 우리가 인공지능 시스템을 둘러싼 몇 가지 논란을 목격하고 있는 시점에서 나온 것이다. 그리고 물론, 이러한 논쟁의 중심에는 거대기술기업들이 자리잡고 있다. 예컨대, 페이스북은 주택광고 노출에 있어서 특정 집단을 배제하였으며, 아마존은 백인남성들에게 유리한 것으로 밝혀진 자동화 채용도구가 논란이 되자 이를 폐쇄했다. 또한 국제미인대회 참가자들의 프로필 사진을 심사할 목적으로 개발된 알고리즘은 백인을 제외한 유색인종 여성들을 입선에서 배제해 논란이 되었다. 금융권에서 개발한 자동화 대출 알고리즘은 라틴계와 흑인 대출자들에게 더 높은 금리를 부과하는 것으로 드러났다. 무엇보다 가장 심각한 문제는 알고리즘의 편향이 정치적으로 영향을 미친다는 데 있다. 이는 민주주의를 직접적으로 위협하는 수단이 되기 때문이다. 예컨대, 구글의 검색결과가 특정 정당에 우호적인 편향성을 가질 수 있다는 우려는 2016년 이후 미국에서 지속적으로 제기되고 있다. 이는 알고리즘이 특정 정당에 편향된 여론 형성과 나아가 선거결과에까지 영향을 미칠 수 있음을 의미한다. 알고리즘의 편향성이 반영된 개인 추천 시스템 (personal recommendation system)이 대통령선거 후보자에 대한 유권자들의 판단에 영향을 미쳤다는 주장(Polonski, 2016)이나, 지난 미국 대선 당시 유튜브 알고리즘이 추천한 트럼프에게 우호적인 콘텐츠가 대부분 허위조작정보(fake news)라는 주장(Chaslot, 2016) 등은 알고리즘이 정치적인 목적을 위해 악용될 수 있음을 보여준다. 실제 2016년 가디언(The Guardian)지가 유튜브 자동추천영상을 분석한 결과, 643개의 편향적인 콘텐츠 중 551개(85.7%)가 트럼프를 지지하는 것으로 나타났다. 이를 바탕으로 자동추천과 검색자동완성 알고리즘이 허위조작정보를 유포하는 극우세력들의 정치적 수단으로 악용될 소지가 있다는 우려도 등장했다(Solon & Levin, 2016).

이처럼 기술이 발전하면서 알고리즘을 활용한 자동화된 의사결정 시스템이 우리 삶의 가장 중요한 결정에 사용되고 있지만, 본질적으로 내재된 편향성과 불투명성 때문에 합리적이고 공정한 결과를 기대하기 어렵다. 특정 인종이나 성별에 대해 편향적인 데이터를 기반으로 훈련하는 기계학습 알고리즘이 인종차별과 성차별로 이어지는 것 역시 동일한 맥락의 문제이다.


‘알고리즘 책무성 법안’은 이와 같은 문제들을 현실적으로 규제하고 감시하기 위해 몇 가지 개념들을 구체적으로 정의하고 있다. 먼저, ‘자동화된 의사결정 시스템(Automated decision system)’은 기계학습, 통계데이터 처리, 인공지능 기술 등을 통해 소비자의 의사결정에 영향을 미치는 기계적 계산과정체계를 의미한다. 둘째, ‘자동화된 의사결정 시스템 영향평가(Automated decision system impact assessment)’는 정확성·공정성·편향성·차별성·보안성 등에 영향을 미치는 자동화된 의사결정 시스템의 개발과정을 평가하는 절차를 의미한다. 법안에는 이를 위해 몇 가지 지켜야할 최소한의 요구사항들이 나열된다. 예컨대, 자동화된 의사결정 시스템의 설계구조·작동방식·목적 등에 대한 구체적인 설명, 시스템 결과가 저장되는 기간, 소비자에게 제공되는 정보 및 소비자가 접근할 수 있는 범위 등이다. 셋째, 본 법안은 ‘고위험 자동화된 의사결정 시스템(High-risk automated decision system)’을 별도로 규정하고 있다. 이는 자동화된 의사결정 시스템 중, 소비자에게 차별을 불러올 수 있는 민감한 정보(인종, 국적, 정치성향, 종교, 노동조합 가입여부, 유전자데이터, 성정체성, 범죄경력 등)들을 불공정하고 편파적으로 사용하여 소비자에게 중대한 영향을 미칠 수 있는 위험을 내재한 경우, 그리고 공개적으로 접근할 수 있는 광범위한 물리적 장소를 체계적으로 감시하는 경우 등을 포함한다. 넷째, 법안에는 기업들이 수행해야 하는 ‘자동화된 의사결정 시스템 영향 평가’ 항목들이 포함된다. 개발 프로세스에 대한 평가, 시스템 설계 및 교육 데이터의 정확성·공정성·편향성·차별성·보안성 등에 대한 평가 등이다. 한편, 법안 규제에 해당하는 대상은 대량의 정보에 접근할 수 있는 거대기술기업들이다. 구체적으로 연간 총수입이 5천만 달러 이상이거나, 최소 100만 명의 소비자 혹은 소비자 기기에 대한 정보를 보유하거나, 소비자 데이터를 사고파는 데이터 중개자(data broker) 역할을 하는 기업에 적용된다. 또한 규제대상 기업들은 소비자의 법적 권리에 영향을 미치는 모든 행위들, 즉 소비자의 행동을 예측하고 분석하려는 시도를 비롯해 엄청난 양의 민감한 데이터를 축적하면서, 시스템 규모가 크고 공개적으로 접근할 수 있는 물리적 장소를 감시하는 광범위한 알고리즘 등을 스스로 평가해야 한다. 만약 연방거래위원회가 기업 알고리즘의 편향이나 차별, 그리고 사생활 문제 등을 주요 위험요소로 판단한다면, 기업은 적시에 대응할 수 있다.

법안이 통과되면, 기업들을 규제하는 권한은 소비자 보호 및 독점금지규제를 담당하는 기관인 미국 연방거래위원회가 갖게 된다. 구체적으로 연방거래위원회는 문제가 발견된 기업들이 자동화 시스템을 즉각 시정할 수 있는 준칙을 만들 수 있게 되며, 나아가 자동화 의사결정 시스템이 어떻게 작동하는지 정기적으로 감시할 권한을 부여 받게 된다.


‘알고리즘 책무성 법안’은 인공지능 윤리전문가와 다양한 분야의 연구자들로부터 매우 중요한 시도라는 찬사를 받고 있다. 기술 개발과정에서 발생하는 사회문제에 주목하는 ‘데이터 앤 소사이어티(Data & Society)’ 소속 연구원 무탈 엔콘드(Mutale Nkonde)는 이 법안에 대해 “AI의 부정적인 영향으로부터 소비자를 보호하기 위해 입법가, 연구원, 그리고 다양한 전문가들 사이에서 수개월 동안 논의된 첫 번째 결과물”이라고 평가한다. 또한 기술 및 법률 전문가인 앤드류 셀브스트(Andrew Selbst) 역시 법안 발의에 대해 ‘새롭고 흥미로운 시도’라고 말한다.

이 법안은 향후 알고리즘에 대한 규제와 감시를 강화하는 더 큰 전략의 출발점이 될 것이다. 현재 미국에서는 국가안보 위협에 대한 대응으로 알고리즘 조작을 포함한 허위조작정보의 확산을 해결하기 위한 논의를 진행 중이다. 물론 규제 논의는 다양한 관점에서 진행되어야 한다. 법적 논의와 더불어, 의회 관계자들에게 현재 알고리즘에 기반한 거대 기술 기업들의 결정에서 발생하는 정치·사회 문제가 무엇인지 교육하고, 정치적 이해관계를 초월한 적극적인 관여를 독려시키는 것도 중요하다. 앞서 언급한 것처럼, 이 법안이 현재의 미국 의회와 트럼프 행정부를 통과할 가능성은 낮다. 그러나 정책입안자들과 다양한 분야의 전문가들 사이에서 수개월 동안 논의된 결과물이라는 점에서 큰 의미를 갖는다.


앞으로 가야 할 길에는 수많은 장애물들이 기다리고 있다. 그러나 가지 않을 수도 없는 길이다. ‘알고리즘 책무성 법안’은 알고리즘과 지혜롭게 공존하기 위한 인류의 위대한 첫 걸음이다.


참고문헌

Chaslot, G. (2016), “Does YouTube’s A.I. favor Trump and fake news?”, https://medium.com/the-graph/youtubes-ai-is-neutral-towards-clicks–but-is-biased-towards-people-and-ideas-3a2f643dea9a#.vwa9dm20q

Polonski, V. (2016), “Would you let an algorithm choose the next US president?”, https://www.weforum.org/agenda/2016/11/would-you-let-an-algorithm-choose-the-next-us-president/

Solon, O. & Levin, S. (2016). “How Google's search algorithm spreads false information with a rightwing bias”, https://www.theguardian.com/technology/2016/dec/16/google-autocomplete-rightwing-bias-algorithm-political-propaganda?CMP=share_btn_fb



본 내용은 한국언론진흥재단 <신문과방송> 2019년 6월호에 실린 필자의 원고를 수정하여 게재하였습니다.

keyword