민주주의를 위한 온라인 플랫폼 규제의 경계선과 최후의 보루
언론의 자유(freedom of speech)는 민주주의 사회에서 가장 근본적인 가치이지만, 온라인 플랫폼의 알고리즘이 야기하는 구조적 문제와 결합되면서 그 한계 설정은 더욱 복잡하고 첨예한 논쟁거리로 부상하고 있다. 특히 극단적인 정치적 선동과 가짜 뉴스의 문제는 전통적인 규제 방식으로는 해결하기 어려운 난점을 내포하며, 결국 플랫폼의 설계와 규제 문제로 담론이 이어질 수밖에 없다.
언론의 자유가 무제한일 수 없다는 점은 자명한 사실이며, 공공의 이익과 타인의 권리에 대한 명백하고 현존하는 위험이 발생할 때 규제의 선(line)이 그어진다. 철학자 '토마스 스캔론'(Thomas Scanlon, 1940-)이 제시한 가상의 사례는 이 경계의 필요성을 극명하게 보여주는데, 쉽게 구할 수 있는 가정용품으로 치명적인 신경가스(nerve gas)를 만드는 방법을 발견한 발명가가 그 제조법을 공중에 배포하려 한다면, 그것은 인류와 공공에게 명백한 이득이 없는 위험한 정보를 유포하는 것이므로, 이를 막는 것은 정당하다. 워버턴 교수는 이 사례를 들며, "모든 상황에서 언론의 자유가 보호되어야 한다고 믿는다면, 이와 같은 경우에도 언론의 자유가 보호되어야 한다고 믿어야 한다."라고 지적하며 무제한적 자유론의 모순을 짚는다. 이처럼 폭력 선동이나 국가 안보 위협과 같이 직접적이고 물리적인 해악이 명백한 영역에서는 규제선 설정이 비교적 용이하다.
그러나 실제 사례인 '히트맨: 독립 계약 킬러를 위한 기술 매뉴얼(Hit Man: A Technical Manual for Independent Contractors)' 출판 사건은 규제선 설정의 어려움을 극명하게 보여준다. 이 책은 신중하게 살해하고 시체를 처리하는 방법에 대한 자세한 지침을 제공했으며, 실제로 1993년 보험금을 목적으로 아들, 전처, 아들의 간호사의 살인을 청부한 '로렌스 혼'(Lawrence Horn)이 고용한 업자가 이 책의 지침대로 소음기를 만들고 살인 행위를 저지르는 사건이 발생했다. 이에 피해자와 유가족이 출판사를 상대로 민사소송을 제기했는데, 출판사는 수정헌법 제1조(언론의 자유)를 근거로 항변했다(이 소송은 최종적으로 법원 판결을 받지 않고 합의를 통해 종결, 살인청부한 혼과 업자는 종신형 복역 중). 워버턴은 이 책이 직접적인 선동적 폭력물로 밝혀진다면 검열의 근거가 분명하겠지만, 그렇지 않다면 개인의 표현의 자유를 침해하는 것처럼 보일 수 있다고 지적한다. 즉, 이는 명백한 선동과 간접적 지침 사이의 모호한 경계가 규제 난제의 핵심임을 시사한다.
이러한 규제 난제는 허위 정보나 극단적인 정치 선동의 영역으로 넘어오면 더욱 심화된다. 특히 온라인 플랫폼에서 활동하는 극단적 정치 유튜버들이 퍼뜨리는 내용은 명백한 범죄 선동이 아닌 경우가 많기에, 이를 국가가 '가짜 뉴스'로 규정하여 규제하는 것은 정치적 검열의 위험을 내포하여 언론의 자유를 침해할 수 있다는 근본적인 난점을 갖는다. 문제는 바로 이 지점에서 온라인 플랫폼의 알고리즘이 개입하며 민주주의의 근간을 위협한다는 사실이다. 미국 법학자 '캐스 선스타인'(Cass Sunstein, 1954-)이 지적한 바와 같이, 민주주의를 지탱하는 언론의 자유는 대중이 다양한 연설자와 의견을 접함으로써 자신의 신념을 비판적으로 성찰하는 데서 비롯되는데, 인터넷과 알고리즘은 사용자가 선호하는 정보만 계속 수령하도록 설계되어 확증 편향을 강화시킨다.
알고리즘은 사용자가 듣고 싶지 않은 정보를 걸러내는 '필터링'을 자동화하여, 개인을 '에코 쳄버'(echo chamber)에 가둔다. 선스타인은 이질적인 사회가 잘 작동하려면 사람들이 찾지 않았고 어쩌면 상당히 자극적일 수 있는 주제와 관점을 포함하는 '예상치 못한 만남'이 민주주의의 핵심이라고 역설하지만, 알고리즘은 이 '예상치 못한 만남'을 제거하고 개인에게 '일상의 나'(daily me)만을 제공한다. 이로 인해 양극단의 생각은 더욱 분열되고 갈등은 조장되지만, 이 극단성의 확산을 설계하고 이익을 얻는 플랫폼은 그 사회적 해악에 대해 책임을 지지 않는다. 오히려 정치 세력은 이 갈등과 분노 지수의 상승을 지지층 결집의 정치적 자원으로 이용해 먹는다. 따라서 민주주의를 지키기 위해서라도 표현의 자유라는 헌법적 가치를 직접 건드리기보다는, 투명하지 않고 중독성을 극대화하는 알고리즘이 야기하는 시스템적 해악에 선을 그어야 한다는 주장이 가능하게 된다.
이러한 점을 고려하여 온라인 플랫폼 규제 설계는 콘텐츠의 내용이 아닌 알고리즘의 작동 방식에 집중해야 한다. 이 접근은 경쟁법의 관점에서도 일부 정당화될 수 있는데, 논란은 있지만 플랫폼이 알고리즘의 불투명성을 이용하여 특정 경쟁자나 콘텐츠를 부당하게 우대하거나 배제하는 행위는 시장 지배적 지위 남용으로 해석될 여지가 있기 때문이다. 그러나 알고리즘의 해악은 단순히 시장 공정성 문제를 넘어 민주주의와 기본권의 문제이므로, 유럽연합(EU)의 사례와 같이 포괄적인 디지털 서비스법(DSA)이 더 적절한 대응 방안이 될 수 있다. DSA는 대형 온라인 플랫폼에게 알고리즘의 투명성을 확보하고, 이용자에게 비개인화 추천을 선택할 권리를 부여하며, 선거 과정이나 시민 담론에 미치는 체계적 위험(systemic risk)을 분석하고 완화할 의무를 부과함으로써, 플랫폼의 책임을 '콘텐츠 중개자'가 아닌 '사회적 시스템 설계자' 수준으로 격상시킨다. 이는 규제의 선을 표현의 자유 침해 논란이 적은 시스템의 책임 영역에 긋는 현실적인 방법이다.
하지만 이러한 규제 설계의 현실적인 난관은 여전히 존재한다. 온라인 플랫폼의 핵심을 이루는 빅테크 기업 대부분이 미국에 기반을 두고 있는 글로벌 기업이라는 사실이다. 한국이 DSA와 같은 강력한 규제를 추진한다면, 이들은 자국 정부를 통해 규제를 무력화하는 통상 압력을 가해올 것은 자명한 현실이다. 또한, 규제 당국이 플랫폼의 복잡한 알고리즘 시스템을 완전히 이해하고 규제를 집행할 수 있는 전문성을 갖추기 어렵다는 정보 비대칭의 문제는, 플랫폼 기업들이 규제를 기술적으로 회피하거나 규제 당국을 자신들의 이익에 맞춰 무력화시키는 '규제 포획'(regulatory capture)의 위험을 증대시킨다. 결국, 알고리즘의 해악을 규제해야 한다는 당위성에도 불구하고, 국가 주권을 넘어선 글로벌 기업의 경제적 힘과 통상 정치 앞에서 개별 국가의 사정은 쉽지 않다.
그럼 어찌해야 하는가? 이 문제는 단일 국가의 규제만으로는 완벽히 해결될 수 없다는 냉정한 현실 인식에서 출발해야 한다. 가장 현실적인 대응은 국제적인 규제 표준화 노력에 적극적으로 동참하고 EU와 같은 규제 선도 국가와의 공조를 강화하여 통상 압력을 분산시키는 외교적 노력을 병행하는 것이다. 동시에, 규제의 초점을 알고리즘 투명성과 이용자 선택권 보장에 맞추어 '표현의 자유 침해'가 아닌 '디지털 시장 공정성 및 민주주의 보호'라는 보편적 가치에 기반한 규제임을 명확히 해야 한다. 아울러, 기술적 시스템을 넘어 시민 한 사람 한 사람이 알고리즘의 조작과 유해 콘텐츠의 유혹으로부터 스스로를 방어할 수 있는 '비판적 미디어 리터러시'(critical media literacy) 역량을 강화하는 것이 이 시대 민주주의를 지키는 최후의 보루가 될 것이다.