<포털의 알고리즘 조작>
우리나라는 외국의 여러 나라와 달리 뉴스를 무료로 서비스받는다. 이는 정치적 중립성 문제를 제기할 수밖에 없는 상황이라고 하겠다. 개인은 포털의 알고리즘 조작에 의한 편향이나 오류를 알지 못하면서 댓글을 달고 있는 셈이 된다.
AI의 챗GPT로 점점 AI의 영향력이 커져 이로 인한 권리, 인권 등 우려가 제기되고 있다. 이에 유럽연합은 올해 6월에 AI 규제법안을 의결했다. 법안은 챗GPT 등 생성형 AI를 운영하는 기업은 위험성 평가를 받고, AI 챗봇이 악의적이고 불법적인 콘텐츠를 생산하지 못하도록 관리해야 한다.
AI는 결코 중립적이지 않다. 조작자의 성향이나 상황에 따라 얼마든지 오류가 일어날 가능성이 많다. 기존의 데이터로 운용되므로 당연히 편향성이 있을 수밖에 없다. 특히 여성이나 약자들은 이 부분에서 불이익을 받을 것은 불 보듯 뻔하다.
아직도 구글에서 '여자'라는 단어를 치면 19금이 뜨는 세상이다. 여자를 치면 상반신이 유난히 강조된, 즉 가슴이 거의 반라인 사진이 도배를 한다. 남자를 치면 머리 위주의 사진이 뜬다. 이러한 차별적 시선은 우리 사회 도처에 있으며 AI는 그대로 이를 반영하고 있다.
우리가 평등해졌다고 하나 인권침해가 너무나도 많다. 중동에서 여성은 아직도 행동에 자유가 없으며 운전을 하지 못하는 나라도 많다. 더구나 교육도 제한되어 있으며 명예살인의 위협을 느낀다. 인도에서 여성은 성폭력에 노출되는 경우가 너무나 많다. 이러한 자료를 갖고 있는 AI가 과연 중립적인가 말이다.
2020년 10월에 포털에서 알고리즘을 조작한 혐의로 공정위원회는 네이버에 260여 억 원의 과징금을 부과하였다. 전문가들은 AI 알고리즘이 공정성과 신뢰성을 완전히 갖추기는 어렵다고 입을 모은다. 알고리즘 자체를 사람이 설계하기 때문에 ‘인간의 편견이 개입될 여지가’ 있으며 포털사가 외부 전문가들로부터 알고리즘을 검증받더라도 필요에 따라 수시로 변경이 가능해 사실상 이를 잡아내기 어렵다는 것이다.
전문가들은 알고리즘이 내리는 의사결정에는 우선순위 결정, 분류, 관련짓기, 필터링이라는 과정에서 인간 개입이 불가피하며 또한 개입에 따른 오류와 편향성, 검열 등의 가능성이 본질적으로 존재한다고 밝혔다.
즉 알고리즘은 과거의 데이터를 기본으로 학습하면서 특히 인종차별은 물론 성차별 등의 편향성과 오류 가능성을 반영할 가능성이 매우 높다고 정보통신정책분야의 연구원들은 밝힌 바 있다. 이에 따라 편향된 알고리즘을 방지하기 위한 가이드라인이 필요하다고 주장하고 있다.
네이버의 경우 쇼핑과 동영상 등 50여 차례에 걸쳐 알고리즘을 개편한 바 있으며 이 중 5개 만을 주력으로 골라내었다. 포털회사의 특성상 독점을 추구할 수밖에 없는 상태인데 이를 위해 인수 합병으로 덩치를 키웠다. 따라서 올바르고 공정한 계약이 가능한지에 대한 의문은 계속되는 것이다.