김홍열의 디지털 콘서트
국내에서 제일 많이 이용하고 세계 인구 2억 명이 넘게 접속하는 SNS, 인스타그램이 지난 17일 ‘10대 계정, Teen Accounts’ 이라는 청소년 이용자를 위한 안전 사용 강화 방안을 발표했다. 주요 내용은 앞으로 18세 미만 인스타그램 이용자 계정은 ‘비공개’로 일괄 전환된다는 것이다.
구체적으로 10대 계정 발표 이후 인스타그램에 가입하는 18세 미만 계정은 처음부터 비공개로 설정되고, 기존에 가입된 청소년 계정은 60일 이내에 10대 계정으로 전환된다. 일단 미국·영국·캐나다·호주 청소년들을 대상으로 하고 유럽연합 청소년의 경우 올해 말, 아시아 등 그 외 나머지 국가에는 내년 1월부터 적용 계획이다. 한국도 내년 초쯤 10대 계정 정책이 도입될 예정이다.
10대 계정 정책이 시행되면 계정의 주체인 청소년이 동의한 사람만 그 계정을 볼 수 있다. 초대받지 않은 사람은 해당 계정에 올라온 콘텐츠를 보거나 서로 소통할 수 없다. 개인 메시지(DM) 역시 초대받은 사람만 보낼 수 있다. 16세 미만 청소년이 계정을 공개하기 위해서는 부모의 동의가 있어야 한다. 16~17세 청소년은 자신의 판단으로 공개 계정으로 전환할 수 있다. 10대 계정 정책에는 부모의 역할도 적시되어 있다. 16세 미만 청소년의 부모는 인스타그램에 설정된 부모 감독 기능을 켜고 자녀의 인스타그램 사용 시간을 제한할 수 있다. 16세 이상 청소년의 경우 공개 계정으로 전환 후에도 부모가 감독 기능을 켜고 이에 관여할 수 있다.
인스타그램 [AFP 연합뉴스]
인스타그램의 이런 정책은 물론 자발적으로 나온 것이 아니다. 데이터의 집적이 계속 필요한 SNS 기업 처지에서는 불리한 정책이지만 다른 선택지가 없었다. 그동안 SNS가 보편화된 후 SNS를 통한 청소년 대상 범죄가 늘어나고 날이 갈수록 극악해지고 있음에도 SNS 기업들이 이런 피해를 방치하고 있어 사회적으로 비난을 받아왔다. 공개된 사진이 딥페이크 기술을 이용해 음란물로 만들어지고, 개인 메시지(DM)를 통해 성 착취를 할 때에도 SNS 기업들은 적절한 조처를 하지 않았다. 청소년들의 피해를 계속 방치하면 각국 정부로부터 받아야 하는 페널티를 사전에 막을 필요가 있다고 판단했고 불가피하게 이런 정책을 발표한 것이다.
청소년 대상 범죄의 빈도와 정도가 날이 갈수록 심해지자, 각국 정부는 청소년들의 피해를 막기 위해 SNS를 어느 정도 규제할 필요가 있다고 판단했다. 예를 들어, 미국에서는 플랫폼 기업들이 전가의 보도로 활용되고 있는 '통신품위법 230조'를 전면 개정할 필요가 있다는 주장이 강하게 나오고 있다. 통신품위법 230조는 SNS 이용자가 올린 불법적인 콘텐츠에 대해 인터넷 사업자의 법적 책임을 면책받는 조항이다. 선한 의도를 갖고 콘텐츠 중재 작업을 하는 플랫폼 사업자에 대해서는 발행자에 준하는 의무를 부과하지 않아야 한다는 내용이다. 이 230조는 표현의 자유라는 측면에서는 진보적 측면이 있지만 플랫폼 기업이 증오, 극단주의 콘텐츠를 방치할 수 있는 발판이 되기도 했다.
230조가 논란이 된 배경에는 2021년 틱톡의 '블랙아웃 챌린지'를 시도하다 사망한 10세 소녀 닐라 앤더슨과 관련이 있다. 그는 당시 틱톡에서 유행하던 블랙아웃 챌린지에 도전하다 사망한 것으로 확인됐고 ,그의 어머니는 틱톡이 챌린지의 위험성을 알면서도 동영상을 반복적으로 노출한 책임이 있다며 손해배상 청구 소송을 냈다. 1심을 맡은 필라델피아 동부지방법원은 통신품위법 230조를 들어 해당 소송을 기각했지만, 미국 필라델피아 주 제3 연방 순회항소법원은 "틱톡은 2021년 10세 청소년 닐라 앤더슨의 사망에 책임이 있는지 재검토해야 한다"고 판결했다. 이 판결 이후 '통신품위법 230조'를 전면 수정해야 한다는 주장이 강한 지지를 받고 있다.
틱톡 로고의 스마트폰을 든 10대 청소년 [AFP 연합뉴스 자료사진]
항소법원의 판결은 최근 악화되고 있는 청소년 피해를 더는 방치할 수 없다는 문제의식에서 나온 것으로 보인다. 표현의 자유도 중요하지만, 예상되는 피해를 막기 위해서는 표현의 자유를 어느 정도 제어할 필요가 있다고 판단한 것이다. 230조 개정이 실제 이루어질지는 모르지만, 플랫폼 기업에 대한 책임 부여는 유럽에서도 유사하게 이루어지고 있다. 프랑스는 15세 미만 사용자가 SNS 계정 오픈 시 부모의 명시적인 동의가 필요하고 필요시 부모가 15세 미만 자녀의 계정을 중지할 수 있게 빅테크 기업들이 시스템을 구축해야 하는 법안을 통과시켰다. 법안을 위반하는 기업은 전 세계 매출의 최대 1%에 달하는 벌금을 부과받을 수 있다.
그동안 SNS의 가상공간은 거의 절대적 자유를 누려왔다. 범죄라고 특정할 수 있는 경우를 제외하면 표현의 자유라는 이름으로 거의 규제 없이 공간을 확장해 왔다. 그러나 SNS 기업 역시 사회적 책임에서 완전히 자유로울 수는 없다. 특히 아직 사회적 성숙이 필요한 청소년들이 상처 없이 사회 구성원으로 성장할 수 있게 협력할 책임이 있다. 포르노 콘텐츠에 미성년 접근을 막는 것처럼 피해가 예상되는 공간에 접근을 제어하는 사회적 기술적 시스템을 구축해야 한다. 물론 이런 정책이 근본적 해결책은 될 수 없을지 모른다. 그러나 사회 구성원들의 동의를 받고 법적 제도적으로 시스템을 만들어 가는 과정을 통해 더 나은 솔루션을 계속 찾아낼 수 있다. ++