AI 알고리즘은 민주주의를 어떻게 해킹하는가
How AI Algorithms Could Hack Democracy
제4회 한겨레 사람과디지털 포럼
The 4th HUMAN & DIGITAL FORUM
2025.6.25. 오전11시. 대한상공회의소 B2 국제회의장
◆ AI는 누굴 위한 기술인가…슈필캄프·아이젠스타트, 알고리즘 권력 경고
'소셜미디어, 알고리즘 그리고 민주주의: 누가 책임져야 하는가'를 주제로 기조연설에 나선 야엘 아이젠스타트 민주주의를 위한 사이버보안 이사는 "AI와 소셜미디어 알고리즘은 단지 기술이 아니라 민주주의를 실질적으로 위협하는 요소"라고 강조했다.
아이젠스타트 이사는 미국 정보장교와 외교관을 지낸 경력을 소개하며 전 세계에서 반(反)극단주의 활동을 펼쳐온 경험을 바탕으로 소셜미디어 알고리즘의 설계 목적과 그 위험성을 조목조목 짚었다.
아이젠스타트는 알고리즘이 잘못된 정보와 극단적 콘텐츠를 유통시키는 구조적 문제를 지적하며 트위터·페이스북·유튜브 등의 사례를 제시했다. 그는 2018년 트위터에 대한 "거짓이 진실보다 더 빠르게 퍼진다"는 연구 결과와 함께, 페이스북 내부 문서를 인용해 "독일 내 극단주의 단체 가입자의 64%가 추천 알고리즘의 영향"이라는 사실을 언급했다. 또 유튜브가 청소년 남성 이용자에게 총기 폭력 영상을 반복적으로 추천한 사례도 문제로 지적했다.
야엘 아이젠스타트 민주주의를 위한 사이버보안 이사는 단순 비판을 넘어 소셜미디어 플랫폼의 알고리즘 설계를 바꾸기 위한 현실적 해결책들을 제시했다. 그는 "알고리즘은 기업의 선택에 따라 언제든 조정 가능하다"며 실제 효과를 입증한 사례로 2020년 미국 대선을 앞두고 트위터가 시행한 '마찰정책'을 소개했다.
당시 트위터는 기사 공유 전 경고 문구를 띄우고, 사용자가 내용을 읽도록 유도하는 등 콘텐츠 확산 속도를 1~2초 지연시키는 정책을 도입했다. 아이젠스타트는 "이처럼 사용자의 감정 반응이 행동으로 이어지기 전 잠시 속도를 늦추는 설계가, 실제로 허위정보 확산을 줄이는 데 효과가 있었다"고 설명했다. 그러나 이 정책은 선거 종료 후 폐지됐다. 그는 "플랫폼이 정보를 늦추면 수익이 줄어들기 때문에 결국 철회된 것"이라고 분석했다.
또한 '자율 규제를 가능하게 하는 인센티브 구조'가 필요하다고 제안했다. 아울러 그는 "플랫폼 기업의 알고리즘 설계와 콘텐츠 처리 기준을 외부 연구자와 언론이 검증할 수 있도록 법적 투명성 확보가 반드시 뒤따라야 한다"며 미국과 유럽의 제도적 대응을 비교하며 입법적 개입의 필요성을 강조했다.
마티아스 슈필캄프 알고리즘워치 이사는 '생성형 AI시대, 알고리즘의 책임성 어떻게 확보할 수 있을까'라는 주제로 기조발제에 나서, 인공지능 기술이 현실에서 어떻게 권력을 재편하고 있는지 사례를 들어 설명했다.
슈필캄프는 구글과 마이크로소프트의 'AI 선의' 프로젝트를 비판하며 얼굴인식 오남용·감시 기술·복지 알고리즘의 차별 등 실제 사례를 통해 AI가 인권을 침해하는 방식으로 사용되고 있다고 지적했다.
그는 네덜란드에서 AI 기반 복지 사기 탐지 시스템이 수천 명을 불법 기소해 총리 사임 사태로 이어진 사례를 언급하며 정부조차 알고리즘의 오류에 무력할 수 있음을 경고했다. 또한 데이터센터의 물 사용, 전력 소비, 희귀광물 채굴 과정에서의 노동 착취 등 AI 산업이 초래하는 물리적·환경적 비용도 함께 짚었다.
그는 "AI를 훈련시키는 데 쓰이는 데이터 라벨링 작업자들이 저임금 디지털 노동 환경에서 하루 8시간씩 고통스러운 콘텐츠를 선별하고 있다"며 AI 기술이 지탱되고 있는 불평등한 구조를 비판했다. 슈필캄프는 "AI는 인간의 자유와 자율성을 확장하기보다 기업 권력을 증폭시키는 수단이 되고 있다"고 말했다.
이어 "AI에 대한 허상을 퍼뜨리는 정치인들과, 그런 프레임을 그대로 받아들이는 언론도 문제"라며 '초지능 도래' 담론이 정작 현재 일어나고 있는 감시·착취·불평등의 현실을 가리는 데 일조하고 있다고 비판했다. 그는 AI 산업의 위험을 슈퍼인텔리전스보다는 "이미 존재하는 사회적 시스템 위험"으로 보아야 한다고 주장했다.
알고리즘워치는 이러한 오용과 위험에 맞서기 위해 데이터를 기반으로 한 증거 수집, 정책 로비, 언론 캠페인 등을 벌여왔다. 그는 마이크로소프트의 Bing AI 챗봇이 독일·스위스 선거와 관련한 잘못된 정보를 제공했던 사례를 조사해 공개했고, 이후 MS가 해당 기능을 수정한 사례를 소개했다. 슈필캄프는 "기업들이 책임을 회피하는 한, 시민사회가 이를 견제하고 민주주의의 가치를 지켜야 한다"고 그는 강조했다.
◆ "디지털 민주주의, 다시 시민의 손에… 수평적 협력이 독재 이긴다"
대만의 첫 디지털 장관(2016-2024)이자 현 사이버 대사인 오드리 탕은 "기술이 민주주의를 해킹하고 있다"고 경고하며 "하지만 우리는 디지털을 되찾을 수 있고, 그것은 협력과 집단지성의 힘으로 가능하다"고 강조했다. 그는 '디지털 집단지성은 여전히 민주주의의 미래인가'라는 주제의 기조발제를 통해 기술이 감시와 검열, 사회적 점수로 이어지는 독재의 도구가 되고 있다고 진단했다.
그는 디지털 기술이 민주주의 회복의 도구가 될 수 있음을 대만의 시민 실험에서 보여줬다고 밝혔다. 2014년 해바라기 운동 당시 입법부를 점거한 시민 해커들은 단순한 시위를 넘어, 투명한 실시간 방송과 시민 토론을 통해 대안 입법을 제시했다. 탕 대사는 "이는 회복력 있는 민주주의의 운영체제를 현장에서 시험한 것이었고, 실제로 6년 만에 대만 정부에 대한 신뢰는 9%에서 70% 이상으로 회복됐다"고 강조했다.
탕 대사는 "우리는 수직적 AI가 아니라 수평적 AI를 만들어야 한다"고 주장했다. 그는 "감시국가를 위한 기술이 아니라, 인간의 집단 지혜를 강화하는 기술이 필요하다"며 "대만은 시민 숙의 알고리즘, 디지털 배심원단, 정책 참여 플랫폼 등을 통해 디지털 민주주의를 실천하고 있다"고 설명했다. 실제로 고등학생 제안으로 전국 학교의 등교 시간을 늦춘 사례나 딥페이크 사기 대응을 위한 시민 정책이 그 증거다.
끝으로 그는 "우리는 초지능을 기다릴 필요가 없다. 우리가 연결되고 협력할 때 바로 그 자체로 초지능이 될 수 있다"고 말했다. "독재는 다양성을 혼란으로 보지만, 그것이 민주주의의 힘"이라고 덧붙인 그는 시민 각자가 직접 나서서 디지털 권리를 되찾고 민주주의 기술을 설계할 것을 제안했다. 오드리 탕 대사는 "미래는 단일하지 않다. 미래는 복수다"라는 말로, 포럼의 오전 기조발제는 마무리됐다.
이해민 의원은 이날 라운드테이블에서 '민주주의와 알고리즘의 동행을 위해 정부, 기업, 시민사회의 역할은?'이라는 주제에 대해 "기술이 사회에 미치는 영향은 제품을 기획하는 초기 단계부터 고려돼야 하며, 정부와 기업, 시민사회가 함께 책임을 나누는 구조가 필요하다"고 강조했다.
그는 구글에서 프로덕트 매니저로 일했던 경험을 바탕으로, 클릭률 중심의 알고리즘 설계가 사회적 신뢰를 훼손한 사례를 짚으며 "입법은 각국의 특수성을 반영하되, 국경을 넘는 디지털 서비스에는 국제 규범 기반의 조율이 필수"라고 말했다. 특히 법은 너무 느리고 기술은 너무 빠르다는 인식 속에서 '신호등 같은 입법'을 통해 기술 발전과 규범의 균형을 이뤄야 한다고 제안했다.
또한 그는 플랫폼 기업의 자율적 책임도 강조했다. 제품 기획 문서(PRD)에 시민적 책임 항목을 명시하고, 소셜 임팩트를 사전에 점검하는 문화를 확산시키자는 것이다. 이해민 의원은 "유튜브의 자동 추천 시스템처럼 반복적 소비를 유도하는 기능에는 경고 인디케이터를 탑재하는 등 구체적인 기능 설계가 필요하다"며 자신이 작성 중인 시민책임 기반 PRD 초안을 큐알코드를 통해 공개하고, 전 세계 기술자들이 이를 함께 완성해 나가길 바란다고 덧붙였다.