당신의 링크드인은 안녕한가
링크드인을 열면 묘한 기시감이 든다. 추천되는 사람들의 프로필이 하나같이 나와 비슷하다. 같은 산업, 비슷한 직무, 유사한 학력. 처음에는 매우 효율적이라 생각했다. 그러나 어느 순간 깨달았다. 나는 링크드인에서 나와 전혀 다른 세계에 사는 사람을 만난 적이 없다. 제조업 현장 엔지니어도, 사회복지 현장의 실무자도, 농업 기술을 연구하는 공학도도 내 피드에는 존재하지 않는다. 링크드인이 나를 위해 골라준 세계는 놀라울 정도로 좁았다.이것은 나만의 착각이 아니다. 2025년 Quarterly Journal of Economics에 게재된 현장 실험은 이 직감을 정면으로 실증했다. 400개 이상의 가상 링크드인 프로필을 활용한 2단계 실험에서, 초기 추천 네트워크를 무작위로 배정하더라도 알고리즘은 결국 유사한 배경의 사용자들끼리 군집을 형성하도록 유도한다는 사실이 확인되었다 (Evsyukova et al., 2025). 알고리즘이 설계한 맞춤형 연결은, 실상 구조적 동질성을 강화하는 장치에 불과한 것으로 추정된다. 작은 수준의 동질성만 존재해도 알고리즘은 노출 집단의 다양성을 현저히 훼손할 가능성이 있다는 시뮬레이션 연구 역시 이를 뒷받침한다 (Anwar et al., 2021). 리멤버도, 유튜브의 추천 영상도, 디지털 교과서의 학습 경로도 사정은 다르지 않다. 나를 위한 맞춤형 콘텐츠라 포장되지만, 실상은 복잡성을 거세한 좁은 알고리즘 버블이다 (Pariser, 2011). 플랫폼 개발사들은 사용자의 체류 시간을 늘리기 위해 나와 전혀 다른 사람을 만나는 불편함을 원천 차단한다. 관계 맺음의 자유를 확장한다던 소셜 네트워크가, 역설적으로 관계의 폭을 좁히는 데 봉사하고 있다.
비슷한 사람끼리 똘똘 뭉치는 이 기이한 현상은, 정보 편식에 그치지 않는다. 그것은 인지 저하와 편견 강화라는 더 심각한 결과로 이어질 위험이 있다. 물론 모든 알고리즘이 필연적으로 극단적인 에코체임버를 만든다는 주장은 다소 과장되었을 가능성이 있다. 2023년 사이언스지에 발표된 대규모 실험에 따르면, 소셜 미디어의 알고리즘 추천을 끄더라도 사용자의 정치적 태도 변화는 미미했다 (Guess et al., 2023). 그러나 이 연구가 알고리즘의 무해함을 증명하는 것은 아니다. 정치적 양극화가 즉각적으로 나타나지 않더라도, 네트워크 내부에서 무의식적인 관계의 동질화가 심화되는 현상은 별개의 실증된 사실이다. 인간 사용자의 편향을 완전히 통제한 중립적 봇조차 알고리즘 시스템 내부에서 확증편향을 부추기는 반향실 효과에 갇힐 수 있음이 관찰되었다 (Chen et al., 2021). 이는 시스템 구조 자체가 편향을 유도할 개연성을 제시한다. 알고리즘 미디어가 유발하는 정보의 편식은 단순한 인지적 오류가 아니라, 감정 메커니즘을 매개로 다층적으로 작동한다 (He & Fan, 2025). 사람은 자신이 알지 못하는 것을 마주할 때 인식론적 불편함을 경험하고, 이를 회피하려는 심리가 작동한다 (Figà Talamanca & Arfini, 2022). 알고리즘은 이 회피 심리를 정밀하게 포착해 익숙한 것만 제공하며, 사용자는 감정적 안온함 속에서 자신의 선호도가 통제당하고 있다는 사실조차 인지하지 못할 수 있다. 추천 시스템은 사용자의 좁아진 취향을 학습하고, 그 결과물을 다시 제공하며, 사용자의 신념 체계 자체를 변질시키는 퇴행적 피드백 루프를 작동시킨다 (Jiang et al., 2019). 내가 보는 영상이 나를 만들고, 그렇게 만들어진 내가 다시 비슷한 영상을 클릭하며, 알고리즘은 그 클릭을 근거로 더 좁은 세계를 구축한다.
나를 내 틀에 가두는 알고리즘의 통제는 일상적 선호 조작에 머물지 않는다. 그것은 일터의 생존권까지 위협한다. 한병철은 투명사회를 만인이 만인을 감시하는 새로운 통제사회라 진단했다 (한병철, 2014). 이 디지털 파놉티콘의 핵심은 비대칭적 투명성에 있다. 노동자의 모든 업무 행위와 성과는 빅데이터가 되어 중앙 시스템에 투명하게 수집되지만, 정작 그 감시탑이 어떤 기준으로 자신을 통제하는지는 철저히 가려져 있다.
이러한 기형적인 통제 시스템은 이미 기업의 인사 구조 깊숙이 안착했다. 2019년, 일본 IBM은 인공지능 왓슨을 임금 평가에 공식 도입했다. 회사는 알고리즘이 노동자의 방대한 데이터를 바탕으로 객관성을 담보한다고 주장했다. 노동자는 철저히 데이터로 환원되어 시스템 앞에 투명하게 노출되었으나, 정작 그 데이터를 쥐고 흔드는 왓슨의 작동 원리와 평가 기준은 인사담당자조차 파악하지 못하는 거대한 블랙박스였다. 회사 측은 왓슨이 관리직의 보조 도구에 불과하다고 항변했으나, 노동조합은 실질적 의사결정 권한이 보이지 않는 인공지능에 있다고 반발했다.
이와 같이 덧붙이면 파놉티콘의 데이터 수집 메커니즘과 인공지능 알고리즘의 불투명성이 비대칭적 권력 구조라는 하나의 논리로 단단하게 맞물리게 된다.
결국 도쿄도 노동위원회에서 4년 3개월이 넘는 투쟁 끝에 2024년 8월 1일 화해를 이끌어냈다 (월간노동법률, 2024). 화해 내용은 세계 최초로 기업이 인공지능 임금 평가 항목을 노동자에게 전체 공개하고, 임금이 동결된 직원에게 상사가 인공지능 평가 결과를 구체적으로 설명해야 한다는 것이었다.
이 사건이 시사하는 바는 개인의 피해를 넘어선 구조적 모순이다. 기술 도입은 경영권 영역이라는 명분 아래, 노동자는 자신의 연봉이 깎이는 근거조차 알 수 없는 극심한 정보 비대칭에 놓인다. 한국 역시 예외가 아니다. 한국노총 중앙연구원의 플랫폼 노동자 600명 대상 실태조사는 노동자가 수수료 현황과 차별적 콜 배정 등 정보 접근권을 갖지 못한 현실을 직접 드러냈다 (한국노총 중앙연구원, 2022). 알고리즘 소외는 이제 노동 현장에서 가장 첨예한 계급적 갈등의 축이 될 가능성이 높다.
그러나 일본 IBM처럼 알고리즘의 평가 항목을 공개했다고 해서 본질적인 모순이 해소되는 것은 아니다. 학술적으로 알고리즘의 불투명성과 불공정성은 명확히 독립된 변수다. 투명성은 알고리즘이 어떻게 작동하는가를 묻는 기술적 지표다. 공정성은 이 설계가 누구에게 이득을 주고, 누구에게 차별을 낳는가를 묻는 분배와 윤리의 문제다. 투명성은 공정성을 달성하기 위한 전제 조건일 뿐, 충분조건이 아니다 (Figà Talamanca & Arfini, 2022). 미국 형사사법 시스템에서 사용된 컴파스 재범 예측 알고리즘이 대표적이다. 내부 로직이 공개되었음에도 불구하고, 이 알고리즘은 흑인 피의자에게 체계적으로 더 높은 재범 위험 점수를 부여했다 (STEPI, 2016). 투명성이 확보된 알고리즘이 명백한 불공정을 재생산한 사례다. 수학적 공정성 정의들 사이에는 근본적 충돌이 존재하기 때문에, 알고리즘을 투명하게 공개하더라도 결과적으로 누군가에게는 불공정한 구조가 형성될 수 있다 (Dwork et al., 2012).
현재 한국의 법 제도는 이 충돌을 해결하기에 턱없이 부족하다. 2025년 시행된 인공지능 기본법은 고위험 인공지능에 대한 이용자 사전 고지 수준에 머물러 있다. 반면 국회입법조사처의 분석에 따르면, 유럽연합은 인공지능 책임지침안을 통해 피해자에 대한 입증책임을 완화하고 고위험 인공지능 시스템 제공자에게 증거 공개 의무를 부여하여 알고리즘 정보 접근성을 구조적으로 보장하고 있다 (국회입법조사처, 2024). 따라서 노동계는 단순한 정보 공개 투쟁에서 벗어나야 한다. 알고리즘을 공개받아도 그것을 해석할 전문성이 노조 측에 없다면 형식적 투명성에 불과하다. 노동조합 내부의 알고리즘 리터러시를 확보하고, 알고리즘 경영과 노사관계 사이의 거시적 메커니즘을 분석하며, 공정성 감사를 제도화하는 연구가 시급하다.
한병철은 현대 사회의 특징을 매끄러움이라 규정했다 (한병철, 2015). 매끄러움은 상처를 입히지 않으며 어떤 저항도 하지 않는다. 알고리즘이 제공하는 맞춤형 세계가 정확히 그렇다. 너무 편안하고 자연스러워서 우리는 그것이 부자유라는 사실을 감지하지 못한다. 플랫폼 기업은 체류 시간 극대화를 위해 끊임없이 사용자를 동질화의 늪으로 밀어 넣는다. 그러나 진단만으로는 충분하지 않다. 구조적 알고리즘 소외가 만연한 세계에서 자유의지를 회복하기 위해서는 개인의 자각과 사회적 연대, 그리고 기술 설계의 변화가 동시에 요구된다. 이러한 구조적 소외를 극복하기 위한 하나의 해석적 틀로서 칸트와 헤겔의 사유를 빌려올 수 있다. 칸트가 역설한 실천이성은 외부의 감각적 편안함에 휘둘리지 않고 자율적으로 행동의 원칙을 세우는 지적 결단이다. 알고리즘이 감각적 선호만을 증폭시키는 환경에서, 의식적으로 다른 목소리를 선택하는 것은 자율적 주체를 회복하려는 실천적 노력으로 해석된다. 우리는 알고리즘이 제공하는 달콤한 동질성이라는 정립 상태를 거부해야 한다. 스스로 한계에 갇혀 있을 가능성을 인식하는 반립의 과정을 거쳐, 의도적으로 이질성을 수용하는 종합의 단계로 나아가는 태도가 필요하다. 나와는 전혀 관련 없는 산업군의 인물을 탐색하고, 나와는 반대되는 의견을 내는 사람들의 목소리를 고의로 소비해야 한다. 나아가 개인의 실천을 넘어, 추천 시스템이 다양성과 우연성을 기술적으로 설계할 수 있도록 사회적 차원에서 요구해야 한다. 알고리즘이 빚어낸 매끄러운 부자유를 스스로 타파하고, 정반합의 길을 걷는 실천적 의지. 그것이 기계적 동질화에 맞서 인간의 주체성을 지켜내는 단초가 될 것이다.
참고문헌
국회입법조사처. (2024). 직장 내 AI의 신뢰성 보장과 근로자 보호.
월간노동법률. (2024.09). 일본 AI 정책 및 인사노무 관련 사례와 한국에의 시사점.
한국노총 중앙연구원. (2022). 플랫폼노동의 알고리즘 현황과 대응방안.
한병철. (2014). 투명사회 (김태환, 역). 문학과지성사.
한병철. (2015). 아름다움의 구원 (이재영, 역). 문학과지성사.
Anwar, M. S., Saveski, M., & Roy, D. (2021). Balanced influence maximization in the presence of homophily. Proceedings of the 14th ACM International Conference on Web Search and Data Mining, 84–92.
Chen, W., Pacheco, D., Yang, K.-C., & Menczer, F. (2021). Neutral bots probe political bias on social media. Nature Communications, 12(1), 5580.
Dwork, C., Hardt, M., Pitassi, T., Reingold, O., & Zemel, R. (2012). Fairness through awareness. Proceedings of the 3rd Innovations in Theoretical Computer Science Conference, 214–226.
Evsyukova, Y., Rusche, F., & Mill, W. (2025). LinkedOut? A field experiment on discrimination in job network formation. The Quarterly Journal of Economics, 140(1), 283–334.
Figà Talamanca, G., & Arfini, S. (2022). Through the newsfeed glass: Rethinking filter bubbles and echo chambers. Philosophy & Technology, 35(1), 20.
Guess, A. M., Nyhan, B., O’Keeffe, M., & Tucker, J. A. (2023). How do social media feed algorithms affect attitudes and behavior in an election campaign? Science, 381(6656), 398–404.
He, S., & Fan, Y. (2025). Emotion as a cross-layer mechanism in filter bubbles: A social-psychological perspective. Frontiers in Psychology, 16, 1740709.
Jiang, R., Chiappa, S., Lattimore, T., György, A., & Kohli, P. (2019). Degenerate feedback loops in recommender systems. Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society, 383–390.
Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. Penguin Press.STEPI. (2016). 인공지능 알고리즘과 차별. 과학기술정책연구원.