brunch

You can make anything
by writing

C.S.Lewis

by 더굿북 May 15. 2017

08. 넷플릭스의 고객 영화평점 추측 대회

<알고리즘 행성 여행자들을 위한 안내서>

페이지랭크는 우리 시대에 영향력이 가장 큰 기준 중 하나다. 그런데 어쩌면 이보다 더 중요한 기준, 알고리즘과 공생관계에 있는 기준에는 정확한 이름을 붙이기가 어렵다. 이 기준이 어느 정도는 알고리즘을 통해 만들어지기 때문이다. 이러한 공생관계를 파악하기 위해 게임을 하나 해보자.


내가 먼저 시작한다. 나는 당신에게 1~5등급의 책 몇 권에 대해 그 책이 내게 재미있었는지 아닌지, 재미있었다면 얼마나 재미있었는지 살짝 알려준다. 그런 다음 이제 당신이, 다른 책들이 내게 얼마나 재미있을지 알아맞혀야 한다. 이 책들 역시 1~5등급으로 분류된다. 그런데 이때 나와 이 책들에 대해 이야기해선 안 된다. 대신 마지막 휴가와 아이들에 대해서 묻고, 마지막에는 책을 다 읽기까지 해야 한다(이건 속임수다). 이 외에 당신은 수백만 명의 사람들이 남긴 책에 대한 평가를 참고할 수 있다. 이들 모두 책 몇 권에 대해 평가했는데, 그중에는 내가 읽은 책 상당수에 대한 평가가 포함돼 있다. 게다가 이들은 당신이 알아맞혀야 하는 책들을 대부분 평가했고, 그 밖에도 아무튼 굉장히 많은 책에 대한 평가를 해놓았다.

이 게임에 대해 진짜 훌륭한 아이디어를 가진 사람이라면, 백만달러의 상금을 가져갈 수 있다(P가 NP인지 아닌지 맞히는 문제와 상금의 액수가 똑같다). 온라인 영화 대여업체인 넷플릭스(Netflix)가 바로 이런 식의 상을 내걸었다. 넷플릭스는 50만 편 중에서 2만 편가량의 영화에 대한 약 1억 개의 평가를 고객들에게 제공하고 있다. 어떤 고객에게는 몇몇 영화에 대한 평가를 만류했는데, 이런 평가만 해도 수백만 개는 된다. 이 상의 과제는 바로 영화에 대한 고객들의 잠재된 평가를 가능한 한 정확히 알아맞히는 것이다. 이것이 바로 넷플릭스 상(Netflix Prize)이다.


어떤 영화나 책에 대한 나의 평가를 추측하기 위한 가장 간단한 아이디어는 바로 평균값이다. 당신은 그 책과 관련된 모든 평가의 평균값을 계산한다. 그러니까 당신은 나를 평균적인 독자로 만드는 것이다. 이건 완전히 빗나갈 수도 있다. 독자의 절반이 이 책을 1로 평가하고, 나머지 절반은 5로 평가한다고 가정해보자. 그럼 평균값 3은 모든 독자에 대해서 2만큼 틀리다. 1~5등급만 있는 상황에서 이것은 상당히 큰 오차다(그러나 영화나 몇몇 예외를 제외하면 실제로 평균값으로 추측하는 건 굉장히 잘 맞는 편이다). 100만 달러를 따낼 수 있는 더 정확한 조건은 다음과 같다. 넷플릭스가 지금까지 활용해온 방법이 놓친 10%에 달하는 평가를 단순한 평균값 아이디어보다 더 잘 추측해내는 것이다. 이제 이 10%를 더 잘 맞힌 사람이 바로 그 100만 달러를 가져간다.

이제 기준들을 가지고 시작해보자. 당신은 나와 비슷하게 평가하는 독자들을 찾아야 하는 걸까?(이것이 바로 당신이 온라인 사이트에서 흔히 볼 수 있는 것, 그러니까 그 유명한 “이 제품을 주목한 고객들은 ○○○도 주목했습니다”라는 것이다) 아니면 내가 완전히 형편없는 쓰레기라고 평가한 그 책들에 열광하는 팬을 신뢰할 수 있는 반대 지표로 이용해야 하는 걸까? 그것도 아니면 책에서부터 출발해서 생각해야 하는 걸까? 물론 내용 자체에서 출발하는 건 안 된다. 그건 금지돼 있다. 하지만 평가를 이용해서 책들을 집단별로 분류할 수는 있다. 이렇게 하고 나서야 비로소 당신은 다음과 같은 차이를 보게 된다. 나는 역사소설을 들춰보곤 하는 독자들과 적어도 요리책에 대해서만큼은 공감할 수도 있다고 말이다. 이곳에선 아이디어의 다양성이 마음껏 펼쳐진다.

안타깝게도, 2009년 한 무리의 학자들이 이 도전에서 우승했다. 넷플릭스는 이보다 더 좋은 아이디어를 내는 사람에게 100만 달러를 더 주겠다며 상금을 높였다(이런 점을 보면 어쩌면 우리에게 또 기회가 있을지도 모른다). 하지만 유감스럽게도 그사이 또 다른 학자들이 대회에서 공개된 평가를 이용해 넷플릭스의 고객들을 식별해낼 수 있는 방법을 선보였다. 이 방법에선 넷플릭스의 평가와 일종의 온라인 영화 백과사전인 IMDB의 평가를 비교했다. IMDB에서는 평가하는 고객들의 이름을 알 수 있지만, 넷플릭스는 자기 고객들의 평가를 용의주도하게 ‘낯설게’ 만들어놓았다. 하지만 분명한 사실은, 만약 우리가 누군가가 어떻게 영화를 평가하는지 제대로 잘 추측해낼 수 있다면, 그의 평가 패턴을 제대로 재현해낼 수 있다는 것이다. 어느 정도 낯설게 만들어졌더라도 말이다(불평이 쏟아지고 있지만, 넷플릭스는 변호사 비용에 들어갈 두 번째 100만 달러를 아끼고 있는 중이다).

그런데 우승자들은 고객 평가를 어떻게 그렇게 잘 추측해냈을까? 넷플릭스는 처음부터 참가자들의 알고리즘을 외부에 공개하는 것을 대회 조건으로 내세웠다. 따라서 그 비밀을 누구나 확인할 수 있는데, 그것을 살펴보면 대략 다음과 같다. 우승자들은 예를 들어 이런저런 이용자들이 다른 사람들보다 더 단호하게 혹은 더 따뜻하게 평가하는 경향이 있음을 고려했다.

사실 이와 유사한 아이디어는 넘쳐난다. 그런데 어째서 이 아이디어로 상금을 따낼 수 있었을까? 사람들이 이 아이디어를 직접 시험해봤고, 이를 통해 넷플릭스는 엄청난 도움을 받았다. 이것이 바로 넷플릭스가 이 대회를 시작한 본질적인 이유다. 즉, 아이디어는 매우 많았지만 넷플릭스는 이 모든 것을 일일이 시험해볼 여력이 없었다. 중요한 기술은 결국 그것이 실제로 효과가 있는지 시험하는 과정을 거쳐야 하는데, 그걸 대회 참가자들이 대신해준 것이다.

매거진의 이전글 08. 승기를 잡으려면 기선제압하라.
작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari