brunch

매거진 Reviewsdot

You can make anything
by writing

C.S.Lewis

by 은이은의 리뷰닷 Jul 23. 2016

비인간행위자와 필터버블

국내 포털과 페이스북의 추천 시스템

| 이 글은 2015년 11월 작성되었습니다. |



이 글은 최근 국내 포털 등을 중심으로 도입되기 시작한 콘텐츠 추천 시스템과 페이스북이 사용자가 보는 첫 화면을 구성하는 원리를 살펴보고, 이를 작동시키는 알고리즘의 비인간행위자(non-human agency)로서의 역할 및 그로 인해 발생할 수 있는 에코챔버, 혹은 필터 버블의 가능성을 짚어보려는 시도이다. 카카오의 추천 시스템인 ‘루빅스’는 넷플릭스가 채용하고 있는 것과 같은 ‘매트릭스 팩토리제이션’이라는 기법을 쓰고 있었으며, 이는 사용자와 콘텐츠의 상관관계에서 추출된 알고리즘이지만 비인간행위자로서 다시 사용자의 선택에 영향을 미치는 구조로 짜여있었다. 페이스북은 첫 화면을 노출시키기 위한 알고리즘으로 ‘앳지랭크’라는 기법을 사용하고 있는데, 역시 인간행위자 사이의 관계망에 개입해 차이를 만들어내는 비인간행위자로서 작동하는 원리다. 이 비인간행위자는 사용자에게 도달할 수도 있는 콘텐츠를 선택할 확률이 적다는 이유로 콘텐츠를 추천에서 제외함으로써 차단하는 동일한 원리로 작동한다. 결론적으로 뉴스콘텐츠를 소비하는 데 있어서 사용자는 ‘사용자의 취향’이라고 비인간행위자가 판단한 콘텐츠들의 묶음, 즉 ‘필터 버블’에 갇히게 될 가능성이 높다. 

핵심어 : 필터버블 포털 페이스북 알고리즘 비인간행위자 



문제의 제기 

지난 11월30일은 협력관계에 있는 언론사들을 상대로 설명회를 가졌다. 이 자리에서 카카오는 이미 적용했거나 진행중인 기술들을 소개했다. 그 가운데 하나가 ‘루빅스’였다. 카카오의 설명에 따르면, 루빅스는 ‘실시간 사용자 행동 반응형 추천 시스템(RUBICS, Realtime User Behavior-based Interactive Content recommender System)’의 줄임말이다. 카카오는 지난 6월23일 이 ‘루빅스’의 적용사실을 ‘내 입맛에 딱 맞는 뉴스를 보여주는 루빅스!’라는 제목으로 카카오 블로그에 소개한 바 있다. 1 카카오보다 앞서 설명회를 가졌던 네이버 역시 ‘live with 검색’이라는 새로운 기법을 소개했다. 2 

이러한 국내 포털들의 움직임은 1차적으로 모바일 콘텐츠 유통의 1인자로 자리매김하고 있는 페이스북의 ‘인적 네트워크 결합형 알고리즘’에 대한 대응이라는 성격이 강하며, 허핑턴포스트나 버즈피드 나아가 넷플릭스의 성공사례에서 보듯 ‘디지털 퍼스트’라는 구호가 횡행하고 있는 상황에서의 기술기반 기업의 자연스런 생존 전략이기도 하다. ‘알고리즘’ 그리고 ‘추천’이 두 가지 키워드이다. 

“립타이드” 3를 인용하지 않더라도, 우리는 2007년 아이폰의 등장과 함께 시작된 뉴미디어의 파고가 신문과 방송 등 모든 뉴스콘텐츠의 유통방식을 송두리째 바꿔놓고 있다는 사실을 일상에서 체감하고 있다. 뉴스들을 일정한 형식의 제본(binding)으로 묶어 내보내던 관습이 급속히 해체되고 있으며 ‘모바일 디바이스’를 통한 ‘개별 기사의 소비’가 대세로 자리 잡고 있다. 

개별 기사가 모바일 디바이스를 통해 소비되기 때문에 신문의 발행부수는 중요치 않고, ‘어떤 기사가 얼마나 많은 사람에게 도달했느냐’가 중요하며, 이 성적은 시스템에 의해 거의 실시간으로 계측될 수 있다. 특히 모바일 디바이스의 경우 PC와는 달리 로그인을 하지 않더라도 디바이스 아이디 (device id, 사용자의 모바일 기기와 관련된 고유 문자-숫자 식별 코드) 등 다른 사용자의 정보들이 함께 계측된다. PC환경에서는 달성하기가 어려웠던 ‘개인화’가 매우 용이해진 것이다. 

서울신문 사장을 지낸 손주환에 따르면 4,“1994년 9월1일 중앙일보가 처음으로 40면대 체제로 발행을 시작”했고, 그 이전에는 1962년 당시 8면, 1981년에는 12면, 1988년 16면, 90년에 24면 정도에 불과했다. 40면을 기준으로 따져보면 신문 기사는 약 100건 미만이다. 2 그런데 카카오에 따르면, ‘다음 뉴스’가 100여개의 매체로부터 공급받는 기사는 매일 2~3만 개에 달한다.5 개인이 접근할 수 있는 기사의 절대 량은 기하급수적으로 늘어나고 있는 것이다. 그러나 바인딩이 사라진 상황에서 개인이 기사읽기에 투자할 수 있는 시간은 한정되어있고, 이에따라 정보와 개인의 정보선택 사이에는 큰 간극이 존재하게 된다. 

앞서, ‘어떤 기사가 얼마나 많은 사람에게 도달했느냐’가 중요한 상황이라고 언급한 바 있지만, 이렇게 정보와 선택의 사이에 간극이 존재하는 상황에서 사용자가 반응할 수 있는 콘텐츠를 어떻게 알아내고, 어떻게 제시해줄 것이냐 즉 ‘알고리즘’과 ‘추천’의 문제는 그래서 중요할 수밖에 없다. ‘소비자들의 선택을 돕는’ ‘추천’은 상품이 존재해온 이래로 늘 있어왔던 시스템이며 그 자체로는 부정적인 의미를 담지 않고 있다. 그러나 그 ‘상품’이 우리가 세계를 인식하는 틀로 작용할 수 있는 미디어일 경우, 그리고 그 ‘추천’이 사용자가 읽어낼 수 없는 알고리즘 - 비인간 행위자(non-human agency)에 의해서 일어난다고 할 때, 이것이 갖는 함의는 단순히 ‘상품 선택의 문제’ 정도에 머무르지 않는다. 

우리나라에서 ‘생각 조종자들’이라는 제목으로 번역된 ‘필터 버블(filter bubble)’의 저자 엘리 프레이저는 2011년 테드 강연에서 ‘검색의 미래(Future of Search)’에 대한 에릭 슈미트의 2010년의 발언내용을 인용했다. “어떤 의미에서, 사람들이 그들에게 맞춰지지 않은 뭔가를 보고, 소비한다는 것은 매우 힘든 일이 될 것입니다.” 6라는 내용이다. 그리고 지금의 상황을 “인간 정보 관리자에서 알고리즘 정보 관리자로 주도권이 넘어가는” 상황으로 묘사한다. 7 엘리 프레이저의 강연이 있은지 4년이 흘렀다. 그러나 그가 주장하는 새로운 정보 관리자(new gatekeepers)에 대한 개념은 정립되지 않고 있다. 

이 글은 우선 카카오의 사례를 중심으로, 인스턴트 아티클의 본격 출시를 앞둔 페이스북의 영향력 확대를 견제하는 국내 포털들의 전략을 ‘알고리즘’이라는 키워드를 중심으로 살펴보고, 페이스북의 알고리즘을 엘리 프레이저가 제안한 ‘필터 버블’의 개념을 중심에 두고 짚어본다. 이후 ‘필터 버블’ 논란을 의식해서 페이스북이 내놓은 연구 결과를 소개하고, 그 한계를 판단해 본다. 



2. 추천과 알고리즘 : ‘비인간 행위자(non-human agency) 시대’ 

1) 부르노 라투르와 ‘비인간행위자’(non-human agency) 개념 

‘알고리즘’을 키워드로 살펴보기 위해 먼저, ‘행위자 네트워크 이론(actor-network theory, 이하 ANT)’에 접근해 보자. 마노비치(Manovich)가 소프트웨어 연구에서 ANT의 활용 가능성을 언급한 이후로 소프트웨어 연구에서 ANT를 이론적 토대로 활용한 연구들이 자주 이뤄지고 있다. 소프트웨어는 ‘비인간 행위자’라는 분석틀에 잘 들어맞기 때문이다. 사실 PC-Web에 이어 스마트폰이 보편화된 오늘날, 사람들은 다른 사람과 소통할 때 직접 사람(사용자)과 소통하는 것이 아니라 “소프트웨어가 매개한 스크린과 소통하고 있다.” (Knorr Cetina & Bruegger, 2002)8 

ANT는 1980년대 초반 과학기술학의 한 갈래로 분류할 수 있으며, 우리가 세상을 제대로 이해하기 위해서는 ‘행위자’의 개념을 ‘인간 행위자’에서 ‘비인간 행위자’(심지어 그래프, 설계도, 표본, 병균 등으로 )로 확장해야 한다고 본다. 브루노 라투르(Bruno Latour)는 “기술이 사회적 필요에 따라서 마음대로 바뀔 수 있다고 보는 시각과 기술이 자율성을 가지고 인간을 지배한다는 시각을 모두 비판한다. 전자는 기술이 사회적 필요에 따라서 전적으로 구성된다는 사회구성주의적 시각이고 후자는 기술이 거꾸로 인간의 필요와 행동을 결정한다는 기술결정론적인 시각이라는 것이다.” 9 (홍성욱, 2003) 

우리가 간파해야 하는 지점은 라투르가 말하는 ‘행위자’가 ‘인격을 지닌 로봇의 행위’ 같은 것만을 말하는 것이 아니라는 점이다. 예를 들어 라투르의 맥락에서는 ‘과속 방지턱’도 ‘비인간 행위자’가 된다. 방지턱은 아파트 단지 앞에서 운전자들이 속도를 줄이도록(행동의 변화) 만들고, 교통경찰이 단속을 위해 그 장소를 지키고 있지 않도록 해줌으로써 다른 일을 할 수 있는 시간을 준다.(홍성욱, 2003) 이러한 의미에서 소프트웨어는 대표적인 비인간 행위자 중의 하나로 볼 수 있다. 


2) 카카오의 루빅스 

카카오의 설명에 따르면, 카카오는 2015년 2분기(5월14일)부터 ‘루빅스’라고 이름 붙인 추천 시스템이 시사뉴스 영역 이용자에게 적용되기 시작했다고 밝혔다. 카카오는 ‘루빅스’ 시스템의 도입으로 인해 사용자들이 보는 화면의 개인화가 이뤄지게 되었고, 이용자수는 42%가 증가했으며, 첫화면 클릭이 109%가 증가했다고 설명했다. 10 

카카오는 이처럼 개인화된 첫 화면을 제시했을 때, 클릭수가 높아졌을 뿐만 아니라 사용자의 선호에 따른 기사를 분류해 제공하는 만큼, 제공한 기사의 개수도 200개에서 8백개로 4배가 증가했다고 발표했다. 

카오는 언론사 뉴미디어 담당자를 상대로한 별도의 설명자료를 통해서는 추천 시스템이 뉴스 영역 뿐만 아니라, ‘카카오 티비’에도 적용되고 있으며, 176%의 효과를 보았다고 언급했다. 사람에 의한 인위적인 추천과 비교했을 때에도 98%의 향상 효과가 있었다는 것이 카카오의 설명이었다. 









그렇다면, 카카오가 2015년 2분기부터 시범적으로 도입하기 시작한 ‘루빅스’는 어떤 원리로 작동하는지 살펴볼 필요가 있다. 

루빅스는 지난 2009년 넷플릭스가 주최한 추천 알고리즘 경연대회에서 1등을 거머쥔 ‘매트릭스 팩토리제이션(Matrix Factorization)’ 기술 11에 기반을 두고 있다. 매트릭스 팩토리제이션 기술은 쉽게 설명하자면 사용자들과 콘텐츠(콘텐츠 소비 데이터)를 X축과 Y축에 배열하고, 그 상관관계를 구하는 것이다. 

이렇게 구해진 상관관계에 따라, 특정사용자의 인근에 배치되는 콘텐츠는 특정사용자의 기호에 부합하는 콘텐츠가 된다. 카카오 ‘루빅스’의 추천은 이렇게 X축과 Y축상에 배치되는 사용자들에게 좌표값이 가까운 콘텐츠들을 제공하는 알고리즘인 것이다. 





카카오의 ‘루빅스’는 (1)사용자가 (2)시스템-다음초기화면-을 통해 (3)콘텐츠와 행한 상호작용을 바탕으로 만들어진 (4)알고리즘으로 이 알고리즘은 (5)다시 사용자의 선택에 개입하게 된다. 

고피(Goffey)에 따르면, “알고리즘은 프로그램 언어에 독립적이고, 알고리즘에 의해 짜여진 프로그램을 수행하는 기계와도 독립된” 12 실체(existence)이다. 그런데 이처럼 컴퓨터나 프로그래밍 언어, 또는 인간과 구별되는 이 알고리즘이 앞서 살펴본 것처럼 사용자와 상호작용 하면서 “행위를 하는 실체들(entities)”13로서 작용하고 있는 것이다. “의도나 의미를 가지고 인간처럼 행동한다는 것이 아니라”14, “어떤 사건에 부재하하는 것과는 확연하게 다른 상황을 연출한다.”15 

오세욱이 구글 검색엔진과 페이스북의 사례를 가지고 비인간행위자(non-human agency)개념에 접근한 것과 동일하게, 다음의 ‘루빅스’역시 비인간행위자로서 행위를 하는 실체들로서 사건에 작용하고 있는 것이다. 


3) 비인간행위자와 필터버블 

공교롭게도 카카오가 ‘루빅스’를 적용한 2015년은 집권여당인 새누리당이 이른바 ‘포털 보고서’를 내놓으며 국내 포털들을 압박한 해이기도 하다. 앞서 네이버는 PC-Web 1면 화면의 기사 편집과 관련한 ‘자의적 편집 논란’을 ‘네이버 뉴스 스탠드’로 돌파한 바 있는데, 카카오는 지난 9월 ‘포털 보고서’와 관련해서, “알고리즘으로 편집되기 때문에 편향 논란은 있을 수 없다.”고 답한 바 있다.16 

ANT, 라투르의 맥락은 인간과 ‘비인간행위자’가 어떻게 네트워크를 형성하고 그 네트워크에서 의미가 생성되는지를 살펴보는 것이다. 그러나 현실에서 우리가 목격하는 장면에서는 1개 또는 그 이상의 층위(layer)가 더 개입되는 것으로 판단된다. ‘포털 보고서’의 등장이나 ‘댓글 조작사건’ 등이 거기에 해당된다. 네트워크 밖, 더 큰 네트워크에서 작용하는 사회정치적 맥락이다. 따라서 우리는 ANT로부터 ‘비인간행위자’라는 개념을 끌고 왔지만, 이 ‘비인간행위자’(알고리즘)에 인간의 의도가 이식될 가능성을 경계해야 하고 그렇기 때문에 ‘비인간행위자’가 개입된 네트워크가 어떻게 여론형성에 작용하는지 살펴볼 필요가 있다. 

우리나라의 뉴스 소비는 대부분 포털 뉴스 섹션을 통해서 일어난다. “인터넷 뉴스를 가장 많이 접하는 경로에 대해서 복수응답 형태로 조사한 결과, ‘포털 뉴스 섹션’과 ‘포털 검색’이 각각 44%와 26%를 기록해 전체의 70%에 달하는 것으로 나타났다.” 17 여기에 더해 페이스북이나 트위터 등 소셜네트워킹서비스를 이용해 뉴스를 소비한다고 대답한 비율도 9%에 달해, 거의 80%가 포털이나 소셜네트워킹서비스를 통해 뉴스가 유통되는 것으로 나타났다.(인터넷 뉴스 이용자 조사 p.86) 개별 언론사의 홈페이지를 통해서는 뉴스가 거의 유통되지 않는 것이다. 

같은 조사에 따르면, 응답자의 64%가 스마트폰이나 태블릿을 이용해 뉴스를 봤고, 36%가 PC-Web을 통해서 뉴스를 소비하고 있었다. 그러나 20대의 경우로 한정하면, 85%가 (80% 휴대폰, 5% 태블릿) 모바일 기기를 이용해 뉴스를 봤으며 15%만 PC-Web으로 뉴스를 본다고 답했다(인터넷 뉴스 이용자 조사 p.87)18. 

이런 현실을 연결해 판단했을 때, 비인간행위자(non-human agency)인 알고리즘이 개입해 우리가 볼 뉴스를 선택하는 상황은 과연 문제가 없는 것인가? 즉, 사람들은 뉴스를 대부분 인터넷을 통해 파악하는데, 인터넷(모바일)을 통해서 우리가 보게 되는 뉴스는 알고리즘에 의해 ‘철저히 개인화된 것’으로 우리가 보기를 기대하는 것만 보여주는 방식이라면, 듀이나 리프만 그 어느 쪽이든 중요하게 생각했던 언론의 역할이 제대로 구현될 수 있는 것인가? 테드 강연에서 엘리 프레이저는 이런 딜레마 상황을 위트 있게 그러나 현실적으로 묘사한다. 

“우리는 넷플릭스 큐에서 그들이 발건한 것은 우리 열망하는 미래의 자아들 보다 충동적인 현재의 자아 사이에서 서사시적인 투쟁이 존재한다는 것입니다. 우리는 모두 라쇼몽을 본 사람이 되기를 바라지만, 당장은 에이스 벤츄라를 보기 원합니다...(중략)...균형잡힌 정보식단 대신에, 정크 푸드로 둘러싸일 수 있습니다.” (엘리 프레이저, 2011, TED) 19 

좀 더 심리적으로 가까운 예를 들어보자. 지금 선거를 앞두고 있고 유권자들에게 매우 중요한 정보가 전달되어야 한다고 가정해 보자. 그런데 이 경우에도 정치적인 이슈에 관해서는 전혀 반응하지 않는 사용자의 스마트폰에는 관련 기사가 전혀 노출되지 않을 수 있다는 뜻이 될 수도 있다. 엘리 프레이저가 사례로 든 것처럼, 이집트에서는 격렬한 시위가 벌어지고 있는데, 어떤 사람의 검색창에서는 ‘이집트’라는 키워드를 넣어도 시위에 관한 기사는 단 한 건도 노출되지 않는 현실이 언제든지 실제로 벌어질 수 있다는 얘기이다. 엘리 프레이저는 여기에 ‘필터 버블’이라는 이름을 붙인다. 



3. 비인간행위자와 페이스북 

1) 페이스북의 ‘엣지 랭크’ 공식 

엘리 프레이저는 익명의 구글 엔지니어의 말을 인용해,(엘리 프레이저, 2011, TED) 구글이 컴퓨터 기종, 브라우저, 인터넷 사용 장소 등 57개의 신호들을 실시간으로 분석한다고 말한다. 모바일 환경에서는 훨씬 더 많은 정보가 전해진다. 

페이스북도 마찬가지다. “페이스북에 대항하는 유럽(europe-v-facebook)”이라는 이름의 시민단체의 요구에 의해서 공개된 페이스북이 저장하는 데이터 리스트 역시 57개에 달한다. 20 그러나 “페이스북이 공식적으로 밝히지 않았지만, 하루에 수십억 번 발생하는 것으로 알려진 ‘좋아요’ 클릭 기록, 방문한 웹페이지 내에서의 활동 내역, 비디오 등록 내역, 다른 사람의 담벼락에 쓴 글 등의 데이터는 공개하지 않았지만 수집되고 있다. 페이스북은 이러한 데이터를 수집하고 있음을 공개하기를 거부했는데, 페이스북 직원이 참여한 한 연구(Bakshy, et, al.,2012)21는 이러한 데이터를 포함하고 있다. 이 연구는 7주 동안 페이스북 전체 뉴스피드에 노출된 URL 2억 5,323만 8,367개를 수집해 분석했다.”(오세욱, p.38) 

이런 정보들을 바탕으로 페이스북은 사용자의 뉴스피드를 철저하게 개인화 한다. 앞서 살펴본 카카오의 ‘루빅스’는 사용자들과 콘텐츠와의 관계라는 두 개의 큰 축으로 분석을 했다면, 페이스북은 여기에 ‘관계의 알고리즘’이라는 층위를 더한다. 페이스북의 고유한 ‘엣지랭크(EdgeRank)’라는 콘텐츠 노출 알고리즘도 바로 ‘관계의 알고리즘’이라는 층위 때문에 대 강력한 힘을 발휘할 수 있다. 

개념적으로 그림을 그려보자면, 콘텐츠(C)와 사용자(H)의 관계만을 분석하는 알고리즘과는 달리, 페이스북에 있어서 알고리즘은 사용자가 친구와 연결되는 네트워크에 직접 개입하며(A1), 여기에 그치지 않고, 이 네트워크들이 형성되고 움직이고 서로 관계를 맺는 정보를 조합해(A2), 사용자에게 어떤 ‘피드(feed)’를 보여줄 것인지를 결정한다. 비인간행위자(non-human agency)자가 여러 층위에 걸쳐서 개입하고, 이 개입을 통해 알고리즘이 개입된 사용자들로 엮여진 정보의 망에서 무엇을 보이게 할 것인지, 보이지 않게 할 것인지를 결정한다. 









위 그림에서 주목해야 하는 것은 사용자, 즉 H1과 H2의 연결이 비인간행위자, 알고리즘(A1, A2)에 의해 매개되고 있다는 점이다. 인간과 인간의 연결 자체가 직접적이지 않으며, 비인간행위자의 행위가 개입되어 있다는 것이다. 

이는 페이스북의 ‘엣지랭크 공식’에서 분명히 확인된다. 즉 페이스북의 초기화면에서 사용자가 보게 되는 ‘뉴스피드’는 친구관계를 맺은 사람들이 새롭게 올린 소식들의 ‘총합’이 아니라, 알고리즘이 파악한 ‘관계의 친밀성 점수’(u, 위 그림에서 A1이 판단), ‘콘텐츠가 어떤 유형이냐에 따른 가중치’(w), ‘콘텐츠가 얼마나 신선한 것인가의 정도’(d)(위 그림에서 w,d는 A2가 판단)에 따라 사용자가 읽어낼 수 없는 블랙박스 내에서 결정된 것이다. 





상황이 이렇게 전개되자, 페이스북을 홍보의 수단으로 이용하려는 사용자들은 비인간행위자의 행위 공식, 즉 ‘알고리즘’에 의해 콘텐츠가 사장되는(혹은 감춰지는) 것을 막기 위해 ‘우회로’를 찾느라 애쓰는 현상이 벌어지고 있다. 22 이는 엘리 프레이저가 언급했던 ‘필터버블’이 분명히 존재하고 있음을 웅변하는 현상임과 동시에, 프레이저가 언급했던 것 보다 더 강하게 비인간행위자의 개입이 나타나고 있다는 것을 보여주는 것이라고 생각한다. 


2) 엣지랭크의 ‘행위’와 참여하는 사용자의 행동변화 

페이스북의 알고리즘, 그리고 사용자들이 엮여있는 인간행위자-비인간행위자의 매트릭스는 참여하고 있는 사용자(인간행위자)의 감정상태도 바꿀 수 있음이 증명되기도 했다. 페이스북 데이터과학연구팀이 미국 국립과학원회보에 게재한 내용이다. 23 

페이스북은 알고리즘을 조작해 긍정적이거나 부정적인 내용을 담은 게시물 비율을 조정했다. 68면9000여명이 실험 대상이 됐다. 그 결과 뉴스피드에서 긍정적 게시물을 많이 접한 이용자들은 긍정적인 게시물, 부정적 게시물을 많이 접하면 부정적 게시물을 더 많이 올리는 것으로 나타났다.(Adam, 2014) 

이 같은 페이스북 데이터과학연구팀의 연구 결과 발표는 즉각적으로 ‘연구 윤리’의 문제를 촉발시켰다.24 (월스트리트 저녈, 2014) 그러나 이 ‘연구 윤리’를 차치하더라도 우리가 생각해 볼 수 있는 여러 가지 문제들이 노정된다고 생각한다. 우선, 페이스북은 엘리 프레이저가 언급한 ‘필터버블’의 매우 강력한 사례라는 점을 생각해볼 수 있고 두 번째, 이 필터버블 안에서 매우 손쉬운 알고리즘의 조작을 통해 ‘집단 극화’ 현상을 언제든 연출할 수 있다는 점이다. 

여기서 Moscovici & Zavalloni의 실험(1969)을 떠올린다면, 이 실험의 대상이 된 것은 어디까지나 ‘인간행위자’이고, 집단극화는 ‘인간행위자-관계’에서 발생한 것이다. 그런데 페이스북의 실험은 인간행위자와 또 다른 인간행위자 사이에 개입되어있는 비인간행위자(알고리즘, 얼마든지 수정 가능하고 인간행위자들이 읽어낼 수 없는)를 조작함으로써 대량의 인간행위자의 행동변화(긍정,부정의 게시물을 올리는)를 이끌어냈다. 



4. 포털과 페이스북이 추천하는 페이지는 필터버블이 아닌가? 

페이스북 데이터과학연구팀은 2015년 5월7일, 새로운 조사결과를 발표했다. 미국 페이스북 사용자 1010만 명의 데이터를 분석한 결과였다. 25 연구팀은 사용자들이 페이스북에 가입할 때 ‘진보’나 ‘중도’, ‘보수’라고 스스로 밝힌 내용을 바탕으로 성향을 분석했다. 그리고는 작년 7월부터 6개월 동안 페이스북에서 공유한 700만개의 링크를 ‘소프트’와 ‘하드’뉴스로 구분하고, ‘하드 뉴스’는 22만6천개로 압축했다. 이를 바탕으로 연구팀은 사용자들이 정치적 성향이 다른 사람들과 얼마나 많이 친구가 되는지 또 그들이 올린 글에 얼마나 노출됐고 실제 읽은 것은 얼마인지 분석했다. 

그 결과 보수적인 사용자의 친구가 성향과 반대되는 뉴스를 공유한 경우는 35%, 진보적인 사용자의 친구가 자신의 입장과 다른 뉴스를 공유한 경우는 24%로 나타났다. 이런 비율은 페이스북의 알고리즘을 거친 뒤, 평균 1%p가 낮아지는 것으로 나타났다. 그러나 여기서 사용자가 실제 클릭을 하는 과정을 살펴본 결과, 4%p가 더 낮아졌다. 이를 근거로 연구팀은 “평균적으로 페이스북에서 알고리즘에 의한 것 보다 개인의 선택이 다른 성향의 콘텐츠를 제한하는데 더 많이 작용한다는 결론을 얻었다.”고 밝히고 있다. (Eytan, 2015, p.2) 쉽게 말하면, ‘페이스북을 탓하지 말고 사용자 자신을 탓하라’는 결론인 셈이다. 

그러나 2014년 일으켰던 파장에 대한 대응으로 기획되었을 이 연구는 전개하는 논리에 허점이 많아 보인다. 데비알바(Davey Alba)는 지난 5월7일 와이어드에 기고된 글을 통해서 26 다음 두 가지 논점으로 이 연구팀 논리의 문제를 지적한다. 

우선 페이스북은 알고리즘에 의해 기사가 배제되는 비율이 1%p이고, 사용자가 클릭하는 행위를 통해 배제하는 것이 4%p라면서 이 두 가지 요소를 같은 선상에 놓고 비교하는데, “특정 콘텐츠를 클릭하지 않는 사용자의 행동과, 사용자가 아예 볼 수 없도록 알고리즘이 감추는(hiding)행동이 어떻게 등가로 비교될 수 있는(equivalent) 대상이냐?”는 것이다. 

두 번째, 페이스북이 연구를 수행한 모집단에도 비판을 가한다. 페이스북 프로필에 진보인지 보수인지를 스스로 밝힌 사람들만을 조사 대상으로 삼았는데, 이 사람들은 우선 “14억에 달하는 사용자의 9%에 불과한 숫자.”인데다, 스스로를 진보인지 보수인지 프로필에 밝힌 사람과 그렇게 하지 않은 사용자들은 “전혀 다른 행태를 보일 수(behave very differently) 있다.”는 주장이다. 



5. 나가는 글 

이 글은 소프트웨어의 분석을 위해 ANT의 비인간행위자 개념을 들여오긴 했지만, ANT의 맥락 보다는 ‘민주주의와 여론형성’이라는 전통적인 시각에서 현상을 바라보고 있다. 또한, 추천 알고리즘에 관한 논란에서 통신과 인터넷을 규율하는 기관들은 ‘여론다양성’의 시각을 중요시하는데, 앞서 살펴보았던 것처럼 카카오의 ‘루빅스’는 더 많은 기사, 더 다양한 기사가 사람들에게 전달되도록 한다. 문제는 특정한 개인적 선호도를 가진 특정한 사용자에게 어떤 경향성을 갖는 세트(filter bubble)의 콘텐츠가 전달되느냐 하는 것인데, 이는 객관적인 관찰이 매우 어렵다. 또, 페이스북 자체의 연구결과가 학계에 ‘연구 윤리’에 관한 파장을 일으켰던 것과 마찬가지로 인간과 네트워크로 엮이는 비인격행위자의 행위 과정을 관찰하는 것은 프라이버시 침해 등 여러 가지 법률적 문제를 발생시킬 가능성이 있다. 

그러나 분명하게 알 수 있었던 사실은 과거의 커뮤니케이션 모델은 ‘비인격적 행위자’의 등장에 따라 새롭게 수정되어야 할 필요가 있다는 사실이었다. 즉 섀넌과 위버의 커뮤네케이션 모델이나, 슈람의 모델, 라스웰의 모델 모두 송신자와 수신자 사이의 메시지 전달과정을 설명하면서 행위자로서의 인간을 상정하고 있는데 반해 포털과 소셜네트워크 서비스 등 알고리즘이 동원된 현대의 커뮤니케이션 상황에서는 ‘비인격행위자’가 네트워크에 개입하고 있고, 이 ‘비인격행위자’가 오히려 전통적인 개념의 ‘게이트 키퍼(gate keeper)’의 역할을 수행할 가능성이 높다는 점이다. 

특히 페이스북의 경우, 이 ‘비인격행위자’는 네트워크가 만들어진 상태에서의 상호작용 뿐만이 아니라, 네트워크가 구성되는 과정에도 개입하기 때문에, 인간과 인간 사이의 네트워크 혹은 상호작용에서 관찰되었던 사회심리학적 동조효과, 그리고 집단극화 등등의 현상이 더 극단적으로 나타날 개연성을 품고 있다. 이 글을 쓰는 내내 궁금했던 것은, “페이스북의 알고리즘에 의해서 구성되는 ‘맞춤형’ 뉴스피드는 과연 각 개인에게 얼마나 다른 모습으로 구성되고 있을까? 각 세대별로 얼마나 다른 구성의 기사가 ‘공유’를 통해 전달되고 있을까?”였다. 

영화 매트릭스의 네오는 두 개의 현실에 존재했다. 하나는 ‘비인간행위자’인 매트릭스가 네오의 뇌에 전달한 신호에 의해서 구성된 세계였고 또 다른 하나는 그의 몸이 존재하는 실재의 세계였다. 네오는 고통스럽지만 실재하는 세계를 선택했고, 배신자 사이퍼는 실재하지 않지만 만족스러운 매트릭스를 택했다. 그런데 그런 선택을 위해서 우리는 ‘비인간행위자’에 의해서 만들어진 세계가 어떠한지, 그것이 실재하는 세계와 같은지 다른지를 먼저 알아야 한다. 





주석 

1 카카오 블로그, 2015.6, “내 입맛에 딱 맞는 뉴스를 보여주는 루빅스(RUBICS)!” http://blog.kakaocorp.co.kr/372 
2 네이버 “2016엔 라이브 검색으로”, 2015, 블로터, http://www.bloter.net/archives/243942 
3 RIPTIDE: What Really Happened to the News Business, 2013, Reported by John Huey, Martin Nisenholtz and Paul Sagan 
4 손주환, 1995.4, ‘한국 신문의 반사회성 – 1990년대 한국신문 해부’ , 서강대 언론대학원 특강 http://m.blog.daum.net/chuwson/118 
5 카카오 블로그, 2015.7, “모바일 시대, 다음 뉴스와 검색의 건강한 변화” http://blog.kakaocorp.co.kr/388 
6 Eric Schmidt on the Future of Search, 2010 http://googlesystem.blogspot.kr/2010/08/eric-schmidt-on-future-of-search.html 
7 Eli Pariser : Beware online “filter bubbles”, 2011, TED https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles 
8 Knorr Cetina, K., & Bruegger, U. (2002). Global Microstuctures : The Virtual Societies of Financial Markets. American Journal of sociology, 107(4), 905-950. 
9 홍성욱, 생명력이 없는 기계 덩어리?, 2003, 욕망하는 테크놀로지, EASTASIA, 
10 Kakao Media Re:boot, 카카오, 2015.11.30. 카카오미디어데이 설명자료 
11 < Matrix Factorization Techniques for Recommender Systems >, 2009, Yehuda Koren & Robert Bell and Chris Volinsky , IEEE Computer Society 
12 Goffey, A. (2008). Algorithm. In M. Fuller (Ed.), Software studies : A lexicon (pp.15-20). cambridge & MA: the MIT Press 
13 Latour, 2005, p.241 
14 오세욱, 소프트웨어 ‘페이스북’의 행위자 네트워크 및 알고리즘 분석 p.41 
15 Latour, 2005, p.72 
16 지디넷, 2015.9, 다음 “뉴스편집 알고리즘이 하거든요” http://www.zdnet.co.kr/news/news_view.asp?artice_id=20150909124100 
17 인터넷 뉴스 이용자 조사, 2014, 방송통신진흥본부 방송통신기획부 
18 위의 글 p.87 
19 Eli Pariser : Beware online “filter bubbles”, 2011, TED 
20 http://europe-v-facebook.org/fb_cat1.pdf 
21 Bakshy, E., Rosenn, I., Marlow, C., & Adamic, L. (2012). The Role of Social Networks in Information diffusion. arXiv:1201.4145. [Online] Available : http://arxiv.org/abs/arXiv:1201.4145 
22 http://blog.newswire.co.kr/?tag=앳지랭크 
23 Adam d. I. Kramer, (2014) Experimental evidence of massive-scale emotional contagion through social networks, PNAS, vol.111, no.24 
24 http://kr.wsj.com/posts/2014/07/01/페이스북-사용자-70만명-모르게-감정-조작-실험/ 
25 Eytan Bakshy, (2015), Exposure to ideologically diverse news and opinion on Facebook, Science.aaa1160 
26 Davey Alba, Facebook Echo Chamber Isn’t Facebook’s Fault, Says Facebook, 2015.5.7., WIRED [Online] http://www.wired.com/2015/05/new-facebook-study-says-echo-chamber-fault/ 

매거진의 이전글 오디오 뉴스의 재발견
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari