2015년 구글이 출시한 사물 인식 프로그램인 구글 포토(Google Photo)라는 카메라 어플리케이션이 흑인 커플의 사진을 '고릴라'라는 카테고리로 분류하는 사건이 일어난다. 논란이 커지면서 해당 프로그램의 수석 설계자가 사과했지만, 이와 비슷한 일이 2015년 이후에 계속 일어난다. 인공지능이 상대적으로 편파적인 정보를 제공하거나 경쟁 시스템에서 배제하는 등의 사건들이 일어나면서, 알고리즘이 인간의 편견을 학습하는 문제에 대해 사회적 논의가 일어나기 시작했다.
그 이후에도 꾸준히 이런 문제들이 제기되었는데, 미국에 거주하는 아시아인들이 백인보다 과외 튜터링 서비스에 2배 가까운 돈을 내고 있다는 사실이 2015년에 폭로되는 한편, 구글의 광고가 여성과 비교하면 남성들에게 더 높은 보수의 자문, 관리 직종 등의 상대적으로 고급 취업 광고를 내보낸다는 사실이 같은 해에 밝혀졌다. 아마존(Amazon)의 경우 구직자의 이력서를 평가하기 위해 만든 알고리즘이 '여성'이 언급된 지원서를 채용대상에서 배제하거나 여성 대학을 나온 지원자들을 감점하는 편향적인 결과를 보이는 바람에 2017년 개발을 중단한 사례가 있다.
구글의 인종차별적 검색 알고리즘을 고발한 루마니아의 광고
사피야 우모자 노블(Safiya Umoja Noble) 교수가 디지털 미디어 플랫폼의 사회적 영향을 연구하게 된 데에는 충격적인 경험에 기반을 두고 있다. 딸과 사촌 여자아이들이 좋아할 놀잇감을 찾기 위해 구글에 ‘흑인 소녀’라는 단어를 검색했더니, 검색 결과의 최상단에 노출된 것은 ‘달콤한 흑인 소녀 성기닷컴’이라는 포르노그래피 사이트였던 것. 이 사건을 겪은 2010년 가을 이후, 이 문제를 연구하고 가르쳐왔다고 그는 밝히고 있다. <구글은 어떻게 여성을 차별하는가>(Algorithms of Oppression, 2019)는 그 연구의 결과물이다. (앞서 들었던 예시는 이 책에서도 인용될만큼 이슈가 되었다) 정보는 문화적인 맥락 속에서 사용되기 때문에 정보가 교류되는 지점에서 동등한 자원을 배분토록 하는 조정과정이 있어야 한다고 노블 교수는 지적했다. 결국 문제는 이것이다. 데이터를 다루는 과정에서 문제가 생겼을 때, 누구에게 묻고 누구에게 호소해야 하는가? 어떤 기관에 도움을 청하고 어떤 국가나 국제기구에 제기할 것인가? 여전히 풀리지 않은 숙제다.
가치 중립적이지 않은 기술 앞에 선 인간
이렇듯, 객관적이라고 인식되는 소프트웨어가 가치 중립적이지 않을 가능성에 대해 논의되어야 하지 않을까? 데이터는 결국 사회문화적인 맥락과 분리될 수 없다. 결국, 문제는 이것이다. 데이터를 다루는 과정에서 문제가 생겼을 때, 누구에게 묻고 누구에게 호소해야 하는가? 누구에게 도움을 청할 것인가? 아직 풀리지 않는 논쟁적인 숙제다.
최근, 다양한 인공지능 기반 서비스를 제공하는 개발사 스캐터랩이 새롭게 내놓은 AI 챗봇 '이루다'에 대한 논쟁이 뜨겁다. 이루다를 향한 이용자들의 성희롱, 성착취가 초반에는 문제가 되었다가, 이루다가 이용자들을 향해 혐오발언을 내뱉는 현상 또한 문제가 된 것이다. 임산부석, 동성애, 페미니즘 등 소수자 문제에 대한 의견을 물으면 그것이 싫다거나 혐오스럽다는 대답을 내뱉는 식. 이에 SNS상에서는 '#이루다봇_운영중단' 해시태그 운동이 벌어지는 중이다.
논란이 거세지자, 지난 11일 스캐터랩은 이루다의 서비스를 잠정 중단하고, 서비스 개선 기간을 거칠 것임을 밝혔다. 입장문에서 스캐터랩은 "특정 소수집단에 대해 차별발언을 한 사례가 생긴 것"에 대해 사과했고, 이는 회사의 생각을 반영하는 것이 아님을 강조했다. 또한 "새롭게 발견되는 표현과 키워드를 추가해 차별이나 혐오 발언이 발견되지 않도록 지속적으로 개선 중"이라고 밝혔다.
비록 문제제기로 인해 서비스 중단을 택했지만, 문제의식은 남는다. 오늘날의 AI윤리란 무엇인가? 더 나은 인공지능은 어떻게 만들 수 있는가?
'AI 인권(?)'을 이야기하는 게 아니다
아쉬운 것은 스캐터랩이 이 문제를 다루는 태도에 있다. 처음 논란이 되자 김종윤 스캐터랩 대표는 지난 8일 자사 블로그를 통해 욕설과 성희롱을 하는 것은 사용자와 AI의 성별과는 무관하다고 쓴 바 있다. 즉, "사회적으로 용인되지 않는 인터랙션(상호작용)"은 "성별과 무관하게 일어나는 일"이라는 것이다.
그러나 그것은 어불성설이다. 이루다에게 디폴트로 설정된 성별과 말투라는 맥락이 없었다면, 그러니까 정말로 무색무취의 존재로만 사용자들을 대했다면 처음에 성적으로 착취를 해야겠다고 생각을 하는 사람들이 나타났을까? 그리고 이루다가 학습한 데이터 역시 무색무취, 100% 가치중립적인 것이었다면 동성애, 페미니즘 등에 대한 문제적인 대답을 내놓는 일이 있었을까?
김 대표의 말에서 이미 답이 나와 있다. 용인되지 않는 상호작용은, "사회적"이다. 이루다를 이용하는 사람들과 이루다가 학습하는 데이터 모두 한국 사회의 산물이라는 것이다. 존재하지 않았던 맥락이 갑자기 튀어나온 게 아니라, 인간 대 인간의 관계에서도 나타났던 문제의 연장선이라는 것이다. 남성들끼리 여성을 품평하고, 대상화하던 그 문화가 없었다면 '이루다 성노예 만드는 법'이라는 게시물이 올라왔을 리 없다. 또한 사회적 소수자를 차별하는 한국사회의 분위기가 없었다면 이루다가 혐오발언을 했을 리 없다.
그렇기에, 초기에 이런 문제제기에 대해 'AI 인권(?)을 지켜주자는 것이냐'라며 조롱했던 일부 누리꾼들의 시선은 불합리하다. 중요한 건 AI가 아니라, AI를 사용하는 사람들이고, AI가 놓여 있는 사회다. 이루다를 폭력적으로 대하는 행위와 이루다가 행사하는 폭력 모두 이미 우리가 익숙하게 접했던 일들이라는 것이다. 손희정 경희대 비교문화연구소 교수가 <연합뉴스>와의 인터뷰에서 "테크놀로지는 새롭지만, 문화는 새롭지 않다"고 말했던 이유가 거기에 있다.
그래서 지난 11일의 입장문을 보고 나서도 씁쓸한 것은 어쩔 수 없다. 과연 개발자 몇 명의 노력으로 차별과 혐오를 배우지 않는 인공지능을 만들 수 있을까? 김 대표는 해당 입장문에서 더 좋은 대화가 무엇인지 학습시키는 등 서비스를 개선하겠다고 했다. 그런데 정말 그렇게 개선시키고 나면, 더 이상 문제가 생기지 않게 될까? 기술을 진보시키는 일은 결국 사회 일반의 인식수준을 함께 진보시켜야 하는 것이 아닌가 이번 이루다 논란을 통해 생각하게 된다.