brunch

You can make anything
by writing

C.S.Lewis

by 설마 Mar 20. 2023

인공지능과 인권

어느새 우리의 삶 속에 들어온 인공지능     

인공지능(AI; Artificial Intelligence)이라는 단어가 더 이상 낯설지 않은 환경이 되었다. 인공지능이 개발되고 활용되는 영역이 점차 늘어가고, 인공지능을 통해 제공되는 서비스나 결정은 인간의 삶에 직접적인 영향을 미치고 있으며, 시간이 갈수록 그 영역과 영향은 점점 커지고 있다. 2021년 3월에 제정된 「행정기본법」에 따르면 행정기관은 법률에 따라 완전히 자동화된 시스템(인공지능 기술을 적용한 시스템)으로 처분을 내릴 수 있다. 인공지능이 공공행정을 지원하는 보조수단이 아니라 의사결정과 행정처분을 할 수 있게 되었다.     


한편에서는 인공지능의 발전과 확산은 생산성과 편의성을 높이고, 국가경쟁력과 삶의 질을 높일 것으로 기대하지만, 또 다른 한편에서는 개인정보 및 사생활 침해와 차별 등 인권 침해에 대한 우려도 제기되고 있다. 우리가 잘 알고 있는 미국법원의 양형 정보 판단 시스템인 콤파스(COMPASS)는 피의자가 흑인일 경우 범죄를 저지를 가능성을 다른 인종에 비해 높게 판단하여 인종 차별적 문제가 발생하였다. 마케팅 분야에서 활용되는 인공지능은 단순히 소비자의 소비 형태나 구매 물품 등을 파악하는 데서 그치지 않고, 개인의 생체정보를 수집하여 감정이나 성향을 파악하여 맞춤형 광고와 상품을 제공할 수 있다. 개인정보를 포함하지 않거나 가명화 한 경우에도 막대한 양의 데이터를 분석하고 이들 간의 연결을 통해 개인을 식별하고 추적할 수 있어서 사생활 문제가 발생할 가능성이 있다. 또한 고도화된 안면인식 지능형 CCTV 시스템이나 자발적으로 정보 제공이 이루어지는 스마트폰 앱 등을 통해 개인의 일상적인 삶의 패턴을 추적하고 분석할 수 있다.      


상황은 이렇지만, 개인은 자신이 사용하는 인공지능에 대하여 자신들의 의견을 제시하거나 참여할 기회가 없다. 인공지능 분야에 대한 법률적 제도적 규제 장치가 부족하여 인공지능으로 인한 인권침해가 발생한 때도 권리구제를 받을 수 있는 절차와 방법이 부족한 것이 현실이다. 또한 인공지능이 개인에게 중요한 결정을 내렸으나, 관계자들은 그 이유를 알 수가 없다. 국내 한 공기업은 인공지능 면접을 보조수단이 아닌 채용 결정의 최종수단으로 사용하여 채용 과정에서 사람의 참여 없이 인공지능 면접만으로 지원자 315명 중 228명을 불합격시켰다. 그러나 해당 공기업은 인공지능이 어떤 알고리즘을 통해 228명이 불합격됐는지 설명하지 못했다.      


이러한 문제점들이 발생하는 가운데 인공지능 분야의 선진국을 중심으로 다양한 대책들이 시행되고 있다. 일부에서는 선진국들의 이러한 태도를 일명 ‘사다리 걷어차기’라고 비판하기도 하지만, 미국은 마이크로소프트, 인텔 등 다국적 기업들을 중심으로 자율적인 인공지능 윤리 기준을 만들고 있고, 유럽연합은 더 엄격한 법제와 구체적인 규정을 도입하고 있다.


선진국에 비해 인공지능 기술이 뒤처져 있는 우리나라는 인공지능 기술과 산업의 성장에 중점을 두어 인공지능으로 인한 인권 문제를 다루는 데는 미흡한 측면이 있다. 최근 국회에 발의된 인공지능 관련 법률에서도 ‘우선 허용, 사후 규제 원칙’이 적용되고 있다. 기술력이 떨어지는 우리의 현실에서 일단 관련 산업을 육성하고, 그 후에 나타나는 문제들을 보완해 나가자는 논리이다.           


그렇다면 인공지능만 문제인가      

얼마 전 식사 자리에서 만난 인공지능 개발자는 인공지능이 마치 모든 것을 다 할 수 있고, 우리에게 완전히 다른 신세계를 가져다줄 굉장한 기술인 것처럼 열광하는 사회적 기대를 이해할 수 없다고 했다. 자신이 개발하고 연구한 바에 의하면 인공지능이란 주어진 데이터를 가지고 결과를 내놓는 단순한 ‘분류 추측기’, 그 이상도 그 이하도 아니라고 했다. 인공지능 전문가는 역시 다르다고 생각하면서 인간도 마찬가지 아닐까 하는 생각이 들었다.      


인간은 자신의 의지와 선택에 따라 결정하고 판단한다고 생각하지만, 사실은 자기 알지 못하는 사이에 우리에게 주어진 다양한 주관적, 내재적, 무의식적 원인에 의해 선택하고 판단하는 경우가 많다. 인간이 어떤 의사결정을 내릴 때 논리적이고 합리적으로 추론하는 것이 아니라 여러 무의식적 요인에 따라 이미 결론을 내려놓고, 그 결론에 맞는 과정을 거꾸로 만드는 것을 전문가들은 ‘인지 편향’(cognitive bias)이라 부르고 있다.      

인지 편향 때문에 인간의 판단과 의사결정에 실제로 차별적 결과가 나타난다는 점에 관해 다양한 연구 결과와 사례가 제시되고 있다. 한 대학 연구팀이 법원의 가석방 심사 결과를 분석하였더니 법관들이 간식이나 식사를 한 이후에 허가 비율이 높아지는 규칙적 패턴을 발견하였고, 난민인정 심사에서는 법관이 응원하는 풋볼팀의 게임 결과가 난민인정 비율에 영향을 미치는 것으로 나타났다. 우리나라에서도 재판 과정에서 인지 편향이 존재함을 입증한 사례도 있다.      


이러한 인간의 인지 편향과 마찬가지로 인공지능도 인간과 유사한 편향이나 차별을 보이고 있고, 이를 ‘기계 편향’(Machine Bias)이라고 부른다. 인공지능에서 기계 편향이 나타나는 이유는 인공지능을 개발하는 과정에서 개발자의 가치관이나 사상 등이 무의식중에 반영되었거나, 인공지능이 학습하는 데이터에 이미 인간 사회의 편견이나 차별적 요인이 포함되어 있기 때문이라고 할 수 있다.      


미국 전자상거래 기업 아마존(Amazon)은 2014년 인공지능이 지원자 이력서를 검토하는 시스템을 개발하여 시범 운영하였으나, 이 시스템은 여성 지원자에 대해서 감점을 주는 방식으로 여성 지원자를 탈락시켰다. 이 시스템의 잘못이라면 아마존의 기존 10년간 지원자 이력서 내용 등을 학습하였고, 그 데이터에는 남성 지원자 정보가 압도적으로 많았던 것뿐이었다. 학습한 데이터에 이미 차별적 요소가 내재되어 있었던 것이 인공지능의 차별 원인이었고, 아마존은 결국 해당 인공지능 채용 시스템을 폐기하였다.      


마이크로소프트(MS)는 2016년 인터넷 이용자들과 대화를 나눌 수 있는 채팅 인공지능 ‘테이(Tay)’를 공개하였다. 그러나 인터넷 이용자들이 테이에게 의도적으로 인종 차별적 내용, 혐오 표현 등을 계속해서 학습시켰고, 그 결과 ‘테이’는 불과 몇 시간 만에 유대인 대학살(홀로코스트)은 허구라는 등의 발언을 하였다. 마이크로소프트는 결국 발표 하루 만에 ‘테이’의 운영을 중단하였다. 몇 년 전 우리 나라에서 있었던 ‘이루다 사태’와 같은 사례이다.           


그러면 어떻게 해야 할까     

우리 사회의 모든 문제가 그렇듯이 쉽고 완벽한 답은 없다. 인공지능이 인권 침해적이고 차별적인 답을 내놓는 것이 우리 사회의 본질적 문제라고 지적할 수만은 없다. 그런 가운데 가장 현실적인 답을 찾아본다면 국가인권위원회의 ‘인공지능 개발과 활용에 관한 인권 가이드라인’이 될 수 있다. 국가인권위원회는 이 가이드라인을 발표하면서 ‘인공지능을 개인의 삶과 사회적 공익에 이바지할 수 있도록 설계하며, 인간의 존엄성과 자기 결정권 및 차별받지 않을 권리의 보장 등 기본적 인권에 기반을 두도록 하는 것이 매우 중요하다’라고 하였다. 이 가이드라인을 만드는 과정을 지켜보았던 경험을 바탕으로 인권 친화적인 인공지능을 위해 개인적으로 꼭 필요하다고 생각하는 두 가지만 소개하고자 한다.      


첫째, 인공지능 개발자와 사업자들은 반드시 모든 사람의 다양성과 대표성을 반영하고, 성별·장애·나이·인종·종교·성적 지향 등 개인 특성에 따라 편향적이고 차별적인 결과가 나오지 않도록 해야 한다. 이를 위해 초기부터 데이터를 잘 설계해야 한다. 데이터의 수집 및 선정, 시스템 설계와 활용 등 인공지능 개발과 운영 전반에 걸쳐 데이터 요소를 검사하고, 차별적인 데이터를 제거하여 편향이나 차별이 나오지 않도록 해야 한다. 이러한 노력은 한 번으로 끝나서는 안 된다. 개발한 인공지능에 대해 정기적인 모니터링과 검사를 시행하고, 문제 발생 시 적극적으로 개선해야 한다.      


동시에 인공지능 기술 및 서비스에 대한 접근성과 인공지능이 주는 혜택은 사회적 약자와 취약계층을 포함하여 모든 사회구성원에게 평등하게 제공되어야 한다. 학습용 데이터의 수집 단계부터 차별적 요소를 통제하고 데이터 편향성을 최소화하여 인공지능을 통한 의사결정이 특정 집단을 소외하거나 그들에게 부정적 영향을 미치지 않도록 해야 한다.      


데이터에서 이런 편향성을 완벽히 제거한다는 것은 불가능에 가까울 수 있다. 다만 최근에 편향된 데이터로부터 편향적이지 않은 결과물을 끌어내는 알고리즘 연구가 시도되고 있다. 인공지능의 판단과 결정을 사람이 이해할 수 있는 형태로 설명할 수 있는 이른바 ‘설명 가능한 인공지능’도 연구하고 있다. 지금까지 우리가 몰랐던 해결방안과 대책이 인공지능 개발 현장에서 나올 수도 있다.      


두 번째로, 정부는 인공지능의 개발과 활용에 있어 인권적 가치가 우선시 되도록 인공지능으로 인한 인권침해와 차별에 대하여 사전적 또는 사후적으로 평가하고 감독해야 한다.      


지금도 인공지능에 적용이 가능한 평가제도로는 개인정보영향평가, 사회적영향평가, 기술영향평가 등이 있다. 개인정보영향평가는 평가 영역이 개인정보의 수집, 관리, 운영에만 제한되어 있어 차별이나 평등, 알권리 보장 등에 한계가 있다. 사회적 영향평가는 파급효과가 큰 기술(서비스)에 대한 사회적 영향을 평가하여 관련기관에 권고하는 제도로, 기술 발전 및 산업 육성에 초점을 두고 있다. 기술영향평가는 인공지능 기술이 사회적으로 미치는 영향을 부정적인 영향뿐만 아니라 긍정적인 영향도 평가하는 것으로 기업의 의무나 규범을 부과하기 보다는 자율성을 높이는 효과가 있다.      


따라서 인공지능이 인간에게 영향을 미치는 분야 전반에 걸쳐 명확한 인권적 기준을 가지고 개인의 입장에서 피해방지 및 구제를 보장할 수 있는 인권영향평가가 필요하며, 국제사회는 인공지능이 인권을 침해하는 영향을 완화하기 위하여 다양한 방식의 인공지능 영향평가를 도입하고 있다.      


유엔은 인권에 미치는 부정적인 영향이나 편향성 및 위험성이 인공지능 인권영향평가에서 발견되면 이를 방지하거나 개선하기 전에는 그 개발과 활용을 중단해야 한다고 하였고, 유럽연합은 관련 근거를 명시한 법률을 추진하고 있다. 영국, 캐나다는 일부 영역에서 영향평가를 의무화하고 있고, 호주도 인권영향평가를 권고하였다.      


우리 정부도 인공지능의 인권침해와 차별의 가능성, 영향을 받은 개인과 사용된 데이터의 양 등을 고려하여 인권영향평가를 개발하고 제도화 해야 한다. 특히 기존 제도로 관리 감독할 수 없는 새로운 분야에서 인공지능이 사용될 경우에 더욱 영향평가가 필요하다. 일부 지자체가 실시하고 있는 자치법률과 사업에 대한 인권영향평가는 제도화 차원에서 참고할 만하다.      


이상의 두 가지로 인공지능에 관련된 염려가 모두 해소될 수는 없다. 인공지능은 이미 우리 삶의 거의 모든 분야에서 적용되고 있고, 인공지능을 뺀 우리의 생활은 상상할 수 없을 정도이다. 인공지능은 과거에 꿈만 꾸었던 것을 현실로 이루어줄 수도 있다. 그러나 이러한 인공지능은 아직 완성되지 않은 세계이다. 우리가 무엇을 입력시키고, 어떻게 설계하고, 얼마나 관리하느냐에 따라 인권 친화적으로 될 수도 있고 인권 침해적으로 될 수도 있다.      

마지막으로 인공지능은 이 주제에 대해 어떻게 생각하는지 요즘 뜨고 있는 CHAT GPT에게 물어보았다. “인공지능은 인간의 지식과 판단을 보완하고, 인간의 생산성과 효율성을 높여주는 도구로 사용되어야 합니다. 인공지능을 개발하고 활용할 때는 항상 인간 중심적인 접근이 필요하며, 인공지능과 인간의 협업이 이루어져야 합니다.” 모든 사람이 수단이나 대상이 아닌 주체로서 자기 자신을 실현할 수 있도록 우리 모두 지혜를 모아야 할 때라는 생각이 들었다. 

작가의 이전글 레비나스와 정치적인 것을 읽고...
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari