최고제품책임자(CPO) 닐 모한 인터뷰 번역 (1)
처음에는 한주에 1건씩 번역 기사 소재를 찾을 수 있을까 고민했었는데, 몇 주 진행하다 보니 습관처럼 읽는 업계 동향 기사가 늘 좋은 소재거리를 물어다 준다. 특히 관심 있는 산업 분야, 기업의 담당자 인터뷰는 분량에 관계없이 현업에서 나오는 펄떡이는 경험들이 도움이 되는 경우가 많아서 선호하는 편이다.
오늘 찾은 유튜브 2인자 닐 모한 인터뷰도 국내에서는 특파원 리포트 형식으로 짧게 보도된 글이었는데, 본문에 아시아 여러 매체들과 인터뷰를 진행했다는 문구에 혹시나 해서 찾아봤더니 역시 일본 동양경제와 장문의 단독 인터뷰가 있었던 것!
- 유튜브의 오리지널 전략은 다른 플랫폼들과는 달리 크리에이터들과 함께 가는 것. 크리에이터들을 보다 많은 청중에게 노출시키기 위해 오리지널 콘텐츠를 프리미엄이라는 페이월(유료 구독 장벽) 안이 아니라 광고를 시청하면 무료로 볼 수 있게 함.
-라이브 채널을 활용하는 크리에이터 9만 명 중에서 주된 수입원이 슈퍼챗인 분들이 2만 명일 정도로 슈퍼챗은 자리를 잡고 있음. 라이브 콘텐츠의 수익화를 위해 슈퍼챗 위에 '슈퍼 스티커'라는 유료 이모티콘을 추가.
- 아시아에 100만 명 이상 구독자를 갖고 있는 크리에이터가 3000명이 넘음. 이들은 천만 원~억대 수익을 올리고 있으며 매년 60% 이상 수입이 성장 중.
짧은 기사였지만 중요한 정보를 담고 있었기에 이번 인터뷰도 유튜브의 중요한 전략을 이해하는데 큰 도움이 될 것 같다. 1부는 유튜브의 규제 가이드라인 등 정책의 이슈. 2부는 비즈니스 전략을 다룬 내용이다. 분량을 고려해 2개로 나눠 올릴 예정.
원문 : 모두를 사로잡은 유튜브, 정말 안전한 곳인가 - 유튜브 No 2가 말하는 성장과 책임 (2019.10.09)
전 세계 20억 명의 MAU (월간 활성화 이용자 수)를 자랑하는 구글 산하의 동영상 플랫폼 유튜브. 2005년에 설립되어 2006년 구글에 인수. 젊은 세대를 중심으로 TV를 대체하는 거대 서비스로 성장했다. 1분에 500시간 이상의 동영상이 올라오는 한편, 최근에는 자극적인 콘텐츠나 가짜 정보가 유통되는 등 악성 동영상이 사회적인 문제를 야기하고 있다. 영상을 통해 수입을 얻는 유튜브 크리에이터도 늘고 있지만, 이들을 규제하는 가이드라인을 둘러싼 비난도 끊이지 않는다. 구글은 유튜브 단독 수익을 공개하고 있지는 않으나 예상컨데, 가장 성장률이 높은 사업 분야일 것이다. 가파른 성장과 함께 플랫폼으로써의 책임이라는 두 마리 토끼를 어떻게 잡을 것인가. 유튜브 미국 본사의 넘버 2 라 할 수 있는 최고 제품 책임자 (CPO) 닐 모한 씨와 직접 이야기를 나눠보았다.
Q. 누구나 자유롭게 영상을 올릴 수 있는 플랫폼인 반면에, 총기난사 현장이나 자살 동영상 등 윤리적인 문제를 야기하는 영상을 막지 못해 비판의 대상이 되는 사례가 늘고 있습니다.
유튜브는 설립 이래 전 세계 모든 이들의 목소리를 담을 수 있는 곳으로 만드는 것을 이념으로 생각하고 있어요. 우리는 오픈 플랫폼의 힘을 믿습니다. 2007년에는 아시아 최초로 일본에서 서비스를 시작했고 지금은 6200만 명 이상이 시청하고 있으며 18세-64세의 인터넷 이용자 비중이 80%를 차지하고 있습니다.
사업적으로 성공한 크리에이터, 시청자 수도 급증하고 있습니다. 현재 10만 명 이상의 구독자를 보유한 일본의 크리에이터는 2300여 명입니다. 동시에 커뮤니티 가이드라인도 강화하고 있습니다. CEO 에게도, CPO인 저에게 있어서도 책임 있는 글로벌 플랫폼이 되는 것이 최우선 과제입니다. 가이드라인의 정비는 여러 가지 절차를 통해 진행되고 있습니다.
가이드라인을 적용할 때 그때그때 상황에 따를 것인가. 어떤 콘텐츠는 (수용이) 가능하고 불가한가의 판단도 중요합니다. 주로 논쟁이 되는 것은 폭력적인 과격주의, 지나치게 자세한 폭력, 괴롭힘. 위험 행동, 혐오 발언, 아이들의 안전을 위협하는 것 등입니다. 가이드라인 개정은 최근 1년 반 동안 30여 차례나 진행되었습니다.
Q. 그렇다면 실제로 가이드라인을 어떻게 운영하고 있나요?
중요한 것은 가이드라인에 위배될 가능성이 있는 동영상을 얼마나 빠르게 감지하고, 유저가 발견하기 전에 삭제할 수 있느냐입니다. 우리는 테크놀로지와 사람의 힘을 모두 사용하고 있습니다. AI 나 기계학습 기술은 지난 몇 년간 중점적으로 투자해왔던 터라, 수십억 개의 동영상에서 규정 위반의 동영상을 감지하고 이를 리스트업(필터링) 하는 시스템을 이미 개발했습니다.
다만, 알고리즘은 미묘한 뉘앙스를 감지하지 못하기 때문에 여기서부터는 사람의 판단이 개입되어야 합니다. 리스트업 완료 단계에서는 위반 가능성이 있는 동영상의 숫자가 사람이 판별할 수 있는 수준으로 줄어듭니다. 유튜브에서는 약 1만여 명의 평가자를 고용해 가이드라인을 집행하는 교육을 실시해 왔습니다.
Q. '미묘한 뉘앙스'라는 게 어떤 것일까요?
예를 들어 이슬람 과격단체(IS)가 올린 것으로 보이는 동영상을 알고리즘이 감지했다고 합시다. 겉으로는 특정 종교의 설교 영상처럼 판별되어 아무 문제가 없어 보일 수 있지만, 실제는 암호 같은 표현으로 폭력을 조장하는, 삭제 대상의 영상일 가능성도 있습니다.
또한 어떤 영상에 위험한 행동이나 괴롭힘에 대한 묘사가 담겨있는데 "이러한 행동을 해서는 안됩니다"라는 메시지를 담고 있다면, 이는 뉘앙스의 차이를 인지할 수 있는 사람이 더욱 빠르게 판단할 수 있습니다. 이러한 판단을 할 수 있는 평가자들을 육성하고 있습니다.
Q. 가이드라인이 달라지면 시스템은 어떻게 바뀌게 됩니까?
중요한 대전제는 가이드라인 자체가 정확하고 적절한 것인가입니다. 판단의 근거가 되는 룰은 크리에이터들이 납득 가능하고, 평가자들이 명확하게 의사결정할 수 있는 내용이어야 합니다. 물론 우리 모두가 전문가는 아니기 때문에, 괴롭힘의 행동이나 혐오 발언 등에 대해서는 전문가 집단과 지속적으로 협의해나가고 있습니다.
새로운 룰이 명확하게 정의된 단계에서 위법의 소지가 있는 영상에 대한 분류를 시작합니다. 가이드라인이 개정되면 초기의 영상들이 알고리즘 학습 데이터가 되고, 데이터가 쌓일수록 알고리즘은 개선됩니다. 이러한 반복을 통해 가이드라인 집행이 매주 개선되고 있습니다.
실제로 이전 분기 (2019년 4월-6월)에는 알고리즘과 사람의 판단에 의해 약 900만 건의 동영상이 삭제되었는데요. 이 중의 75%는 유저들에게 한 번도 노출되지 않는 상태로 삭제되었습니다. 이 수치가 엄청 크게 보이겠지만 살제로 유튜브 전체 동영상 수의 1%도 되지 않습니다.
Q. 평가자는 모두 구글의 직원인가요?
앞서 말씀드린 것처럼 1만 명이라는 인원 규모를 더욱 늘려야 하는 상황이라, 인력 공급과 교육은 외부 벤더에 맡기고 있습니다. 파트너사의 컨설턴트와 계약 직원이 파견되어 구글의 정규직과 같이 일하는 구조입니다.
Q. 가이드라인 위반 가능성이 있는 동영상은 대부분 폭력적이거나 불쾌감을 주는 내용일 텐데요. 평가자들에게 정신적인 부담이 크지는 않을까요?
평가자의 규모를 늘리는 데 있어서, 정신적인 케어는 중요한 고려 사항입니다. 1일 8시간 노동이 일반적이지만, 이들은 하루 최대 근무 시간을 5시간으로 제한하고 있습니다. 나아가 휴식시간은 원할 때 언제든 쓸 수 있고, 평가자로 고용된 시기에는 심신의 건강을 지킬 수 있는 연수 프로그램을 제공합니다. 연 2회가량 직원 앙케트를 실시하여 시스템에 누수가 생기지 않도록 주의를 기울이고 있습니다. 문제가 발생하면 바로 외부 벤더와 협력하여 이를 해결하도록 하고 있습니다.
Q. 유튜브에는 이른바 '보더라인 콘텐츠'라는 개념이 있는데요. 규정 위반 여부를 판단하기 어려운 경계선의 콘텐츠를 의미합니다. 국내외 인터넷 업계에서는 이 기준이 명확하지 않다는 목소리가 있는데, 보더라인 콘텐츠의 여부를 판단할 때 어떤 기준이 적용되는 것일까요?
확실히 규정 위반은 아니지만, 잘못된 내용을 담고 있는 보더라인 영상들이 존재합니다. 예를 들자면, 당신이 부모인데 과거에 아이에게 백신을 접종했을 때 부작용 등이 발생하여 안 좋은 경험을 갖고 있다고 해봅시다. 이들 부모가 (과학적인 근거에 기반하지 않고) 유튜브상에 자신의 경험을 올린다면 이를 막을 수 있을까요?
자신의 아이의 백신 반응에 대해 부모는 목소리를 낼 권리가 있습니다. 한편 이제 막 부모가 되어 정보를 수집하려는 사람에게는 개인의 경험을 담은 영상보다는 대형 병원이 만든 신뢰할 수 있는 영상이 우선적으로 노출되어야 할 것입니다.
규정 위반은 아니지만, 보더라인 상에 오른 콘텐츠의 뉘앙스를 보여주는 사례입니다. 자신의 경험을 얘기하려는 부모를 우리는 규제하려는 것이 아닙니다. 대형병원이 연구결과를 기반으로 제작한 영상을 위의 영상과 동일한 레벨로 다른 유저에게 추천할 수 없음을 말씀드리는 것입니다.
미국에서는 올해 1월 보더라인 콘텐츠가 유저에게 추천되는 빈도를 낮추기 위한 알고리즘을 개선했습니다. 그 후로 몇 개월, 보더라인 콘텐츠가 유저에게 추천되는 횟수는 개선 전에 비해 평균 50% 가랑 줄었습니다.
Q. 그렇다면 신뢰할 수 있는 정보원의 영상은 역으로 추천받는 횟수가 늘어나는 걸까요?
네 그렇습니다. 뉴스나 의료, 과학 등 정확한 정보를 찾는 유저에게는 신뢰도가 높은 영상을 추천해주는 콘셉트입니다.
대형 이슈가 발행한 경우, 유튜브의 홈 화면에 '뉴스속보' 코너가 노출됩니다. 특정 단어로 검색한 경우에는 검색 화면 상위에 관련 뉴스 영상이 연속적으로 보여집니다. 여기에 노출되는 영상은 모두 NHK 뉴스나 뉴욕타임스처럼 제삼자 기관에 의해 신뢰도를 검증받은 채널의 영상입니다.
유튜브는 책임 있는 플랫폼으로 나아가기 위해 '4R' 방침을 세웠습니다. (1) 유해한 정보는 Remove (2) 신뢰할 수 있는 정보를 Raise (3) 보더라인 콘텐츠의 시청 횟수를 Reduce (4) 에코시스템에 가치를 더하는 크리에이터에게는 Reward입니다. 1년 반전에 파트너 프로그램을 통해 크리에이터가 광고수입을 올릴 수 있도록 제도를 변경하여 진입 장벽을 높였습니다. 더 많은 가치를 창출하는 크리에이터에게 경제적인 지원을 집중시키기 위한 목적입니다.
(편집자 주 : 파트너 프로그램 참가 조건이 기존에는 채널 전체의 동영상 시청 횟수가 1만명 이상이었으나, 2018년 2월 이후에는 최근 1년간 총 재생시간 4천 시간 이상, 채널 구독자수 1천명 이상으로 변경되었다)
>> 다음 포스팅 : https://brunch.co.kr/@miho0429/12