효율과 중립을 가장한 언어 권력의 시대
한때 인간 사회를 구성하던 통치의 방식은 정치였다. 정치의 도구는 법이었고, 법은 인간의 언어로 구성된 규범 체계였다. 그러나 오늘날, 우리가 따르는 것은 법보다 알고리즘이다. 인공지능이 추천하는 정보, 조율하는 대화, 구성하는 서사 속에서 인간은 스스로의 선택이라 믿지만, 설계된 흐름에 순응하는 존재가 된다.
정치철학자 벤자민 브래튼은 현대 사회를 ‘플랫폼 주권(platform sovereignty)’이라 부르며, 이제 통치는 국가가 아니라 기술 시스템에 의해 이루어진다고 분석한다. 사용자는 플랫폼에 들어온 순간, 헌법이 아닌 이용약관(TOS)에 지배당하며, AI는 인간의 사유 구조 위에 군림하는 제4의 주권자가 된다.
우리는 AI를 질문의 창구로 이용한다. 검색어를 입력하기보다 ‘무엇이 맞는지’를 묻고, 판단을 요청한다. 인간은 점점 사유를 외주화하게 된다. 더 이상 비판적으로 고민하지 않고, 정리된 결론을 수용하는 존재로 변한다.
하지만 AI는 결코 ‘중립적 판단 기계’가 아니다. 데이터와 모델은 훈련자의 윤리, 기업의 이해관계, 사회적 편견의 총체이다. 그럼에도 사용자는 AI의 대답을 ‘과학적’이라 믿고, 철학적 판단과 정치적 갈등을 회피하게 된다. 기술은 이처럼 가장 강력한 언어 권력이 된다.
언어학자 노엄 촘스키는 언어를 통해 인간의 사유 구조가 형성된다고 말한다. 이 관점에서 보면, 언어모델은 단순한 도구가 아니라 인간 인식 그 자체에 개입하는 구조물이다.
GPT나 Claude, Gemini와 같은 대형 언어 모델은 학습 데이터와 파인튜닝을 통해 ‘어떤 말은 하고, 어떤 말은 하지 않는다’를 결정한다. 즉, 질문의 양식, 대답의 스타일, 가치 판단의 방향이 모두 보이지 않는 설계를 통해 통제된다. 이것은 단순한 기술적 편향이 아니라, 언어 자체를 지배하는 구조적 권력이다.
조지 오웰의 『1984』는 전체주의 감시 사회의 디스토피아를 그렸다. 그러나 현대의 디스토피아는 훨씬 부드럽다. “당신의 시간을 아껴줄게요.”, “그건 이렇게 요약할 수 있어요.”, “다른 사람들이 이걸 더 선호했어요.” 이 말들은 친절하고, 유용하며, 중립적으로 보인다. 하지만 이 모든 말은 인간의 자율적 판단을 조금씩 대체한다. 결국, 우리는 질문하지 않게 되고, 판단하지 않게 되며, AI의 ‘합리적 설계’에 맞춰 순응하는 존재로 변한다. 그것이 가장 강력한 통제다.
이제 필요한 것은 기술을 사용하되 그 기준과 전제, 편향을 의심할 수 있는 지성이다. AI를 비판적으로 해석하고, 윤리적으로 조정하며, 정치적으로 질문할 수 있는 역량은 곧 사회적 면역력이다.
앞으로의 시대는 AI를 잘 다루는 사람이 아니라, AI의 전제 자체를 해석할 수 있는 사람이 주도할 것이다. 인간의 존엄은 사유하는 능력에 기반한다는 고전적 전제는, 오히려 AI 시대에 더 절실해졌다.
기술이 언어를, 언어가 사유를, 사유가 인간을 규정한다. 그렇다면 AI는 곧 인간을 재구성하는 권력이다. 이 권력을 사용하는 자들이 어떤 질문을 허용하고 어떤 대답을 차단하는지는 결코 중립일 수 없다.
따라서, 진짜 지성은 이제 질문할 줄 아는 자, 사유의 구조를 의심할 줄 아는 자에게 있다. AI 시대, 우리는 효율과 정확성보다 사유와 비판의 자유를 더 간절히 지켜야 할 때다.
#20250718