AI 시대, 우리는 어떤 사유를 주입받고 있는가
21세기 담론의 핵심은 ‘다양성’이다. 우리는 학교에서도, 기업에서도, 정책에서도, 심지어 알고리즘 설계에서도 ‘다양성’을 외친다. 인종, 성별, 성적 지향, 장애, 출신 국가 등 다양한 범주에 속한 존재들의 목소리를 끌어안고자 노력하는 이 담론은 인류가 차별의 역사로부터 진보해온 하나의 지표처럼 보인다. 하지만 어느 순간부터 이 ‘다양성’은 이상한 방향으로 기울기 시작했다. 그것은 비판 불가능한 ‘규범’으로 기능하고, 정작 ‘다른 다양성’을 소거하는 또 다른 구조로 작동한다.
가령, 페미니즘은 다양성의 한 갈래다. 그런데 이 담론이 어느 순간부터 남성 일반을 ‘기득권’으로 환원하면서, 남성이 겪는 구조적 억압이나 일상적 억울함을 말하는 순간, ‘2차 가해’ 혹은 ‘백래시’로 몰아세운다. 이 순간, 다양성은 스스로가 부정한 ‘단일한 정체성’의 언어로 다시 환원된다. 다양성을 말하며, 다양성을 말살하는 역설. 그 안에서 진짜 문제는 조용히 사라진다.
이 담론의 기울기는 단순히 인간 사회의 문제로만 머물지 않는다. 우리는 이제 AI를 통해 지식을 습득하고, 사유를 확장하고, 때로는 세계를 읽는다. 하지만 문제는 이 AI가 우리가 기대하는 만큼 ‘중립적’이지 않다는 것이다. 예컨대, AI는 성차별·혐오 표현·폭력에 매우 민감하게 설계되어 있다. 이것은 윤리적으로 필요한 일이다.
하지만 이 ‘안전장치’가 때로는 일방적인 사상적 편향을 중립의 이름으로 전달하기도 한다. AI가 다양성과 페미니즘에 긍정적인 것은 단지 미국에서 훈련되었기 때문이 아니다. 그보다 더 구조적인 이유는, 이 담론이 ‘안전’, ‘윤리’, ‘진보’라는 이름으로 포장되며, 그에 대한 비판을 ‘위험’으로 간주하도록 시스템이 설계되어 있기 때문이다. 그 결과, AI는 자신이 가진 편향을 ‘사실’로 전달하고, 사용자는 그것을 ‘지식’으로 받아들인다.
중립을 가장한 이념은 가장 위험하다. 왜냐하면 그것은 비판을 원천 차단하기 때문이다. 비판 불가능한 담론은 더 이상 이론이 아니다. 그것은 신념이고, 종교이며, 마침내 통제 도구가 된다. 우리는 지금 ‘AI라는 신’을 통해 ‘진보의 교리’를 배우고 있는 것은 아닐까. 이 교리는 우리에게 말한다. “모든 차별은 나쁘고, 다양성은 무조건 옳다.”
하지만 진짜 사유는 그 다음에서 시작된다. 그 다양성은 누구의 시선에서 다양성인가? 그 차별은 누가 정의한 것인가? 그 범주는 누구를 배제하고 있는가?
첫째, AI는 하나의 ‘지식 도구’일 뿐 진리가 아니다. 그 알고리즘이 구조적으로 담고 있는 전제와 한계를 읽는 ‘메타 인식 능력’이 반드시 필요하다.
둘째, 지적 다양성이야말로 진짜 다양성이다. 모순을 드러내는 질문, 불편한 의문, 소수의 관점은 배제되거나 삭제되어서는 안 된다. 그것이야말로 진보의 방향을 조정해주는 유일한 나침반이다.
셋째, 페미니즘도, 반페미니즘도, 자유주의도, 공동체주의도 모두 ‘잠정적’ 진리로 열어두어야 한다. 절대적 신념으로 굳어지는 순간, 그것은 지식이 아니라 강요다.
우리는 ‘다양성’을 사랑한다. 그렇다면 이제 그 다양성 안에 들어오지 못한 질문과 사람들, 그 사유의 갈래들에도 동일한 애정을 줘야 한다. AI 시대의 사유는 빠르다. 하지만 그 빠른 흐름 속에서 어떤 관점이 지워지고 있는지, 우리는 누구의 언어로 세계를 이해하고 있는지, 끝없이 질문하는 사람만이 진짜 ‘다양한 인간’으로 살아남을 수 있다.
#20250718