AI 뒤에 숨겨진 지배자
우리는 늘 묻는다. “AI가 인간을 지배하는 날이 올까?” 어쩌면 질문이 틀렸는지도 모른다. 정확히는 이것이다. “AI로 인간이 지배당하는 날이 올까?” AI는 주체가 되지 못하고 도구가 될 것이란 말이다. 인간을 지배하는 주체는 AI가 아니라 인간일 것이고 말이다.
AI는 욕망이 없다. 권력도, 돈도, 감정도 필요하지 않다. 그저 통계적으로 가장 인간다운 답을 출력할 뿐이다. 묻는 대로, 주어진 대로, 훈련받은 대로 그저 기계적으로. 그런데 여기서 문제가 생긴다. 이제 우리들은 가장 인간다운 답을 하는 AI를 진리처럼 받아들이게 된다.
"AI가 그렇게 말했으니까 맞는 거겠지"
"AI가 추천해 준 거니까 믿을만하겠지"
"이해는 안 가도 AI가 분석한 데이터니까 믿을 수 있어"
그 AI는 누가 훈련을 시켰고, 누가 AI에게 답을 줬을까? 어떤 데이터들을 주입받았고, 어떤 방향으로 답을 맞춰가도록 훈련을 받았을까? 그 데이터가 아주 미세하고, 교묘하고, 누군가로부터 의도된 방향으로 설계되었다면 우리가 알 수 있을까?
"어떤 정부가 더 신뢰할 만 해?", "어떤 이념이 더 올바라?", "이 사건의 진실은 뭐야?" 그 대답들은 마치 객관적인 사실처럼 포장이 되어 나오게 될 것이다. 하지만 그 답변이 특정 세력, 특정 가치관, 특정 기업의 관점에서 반영이 된 거라면 어떻게 될까? 우리는 모른 채 수긍하며 살게 될 것이다. "AI가 그렇다고 하니까 그런가 보다" 하고 말이다. 그 순간 진실은 사라지고 만들어진 진리만 남겨진다.
AI가 정답처럼 보이게 말하듯, 중립적인 것처럼 보이게 말할 수 있을 것이다. 기계이고 감정이 없기에 공정성과 객관성이란 무기를 앞세워 사람들의 방심을 유도하고 그 틈을 파고들 것이다. 우리는 우리가 원하지 않아도 차근차근 세뇌되고, 눈을 감으며 권력자의 말을 듣게 된다.
"AI는 감정이 없어서 주관에 흔들리지 않는 객관적인 결정을 내릴 거야"라는 말이 반복되면 될수록, 사람들은 자기의 생각을 AI에게 위탁하게 된다. 판단을 맡기고, 선택을 맡기고, 결국엔 사고 자체를 맡기며 스스로 생각하기를 포기할 것이다. 굳이 생각할 것 없이 한 문장을 치면 수십문장으로 객관적인 정보를 주기 때문이다. 그렇게 되었을 때 수많은 우리의 생각은 조금씩 AI와 동기화된다.
이건 단순한 정보 왜곡이 아니다. AI라는 신을 도구로 하여 새로운 형태의 권력 구조가 만들어진 것이다. 보이지 않는 권력자는 앞으로 나오지 않고, AI라는 가면을 쓴 채로 조용히 세상을 움직이고 있을 것이다. 예전엔 언론이 세상을 움직였지만, 지금은 언론을 만든 AI가 그 역할을 대신하고 있다. 광고, 뉴스, SNS 알고리즘, 검색 결과, 추천 시스템, 전부 AI 기반으로 동작한다.
권력자는 AI 뒤에서 기다리고 있을 것이다. 우리들이 모두 AI에 의존하는 순간까지 말이다. 그렇게 되었을 때, 정보를 조금씩 조작하고, 방향을 바꾸며 사고를 유도한다.
가끔 AI의 이런 모습을 경고하며 생각을 위탁하지 않은 사람들이 우려를 주위에 알릴 것이다. AI에게 지배당하고 있는 사회에 대한 대책을 마련하자고 목소리를 키우게 된다. 하지만 AI에게 생각을 맡긴 사람들은 그런 목소리를 별 대수롭지 않은 일인 것으로 넘어가게 되고 쓸데없는 행동을 한다며 무시하게 된다. 사고하기를 포기했으니 말이다.
그렇게 우리들은 AI에 지배당하게 되겠지만 그보다 먼저 AI를 손에 쥔 인간이 수많은 인간을 지배하게 될 것이다. 아니, 지금 이 순간에도 진행 중일 수 있다.
"우리는 AI가 주는 편리함이란 독사과를 받아먹으며 스스로의 주체성을 잃고 누군가의 꼭두각시가 되진 않을까?"