할루시네이션과 프로파간다

by DrLeeHC

인공지능의 ‘할루시네이션’보다 더 위험한 것은 인간의 ‘프로파간다’이다.


[사설]

인공지능의 ‘할루시네이션’보다 더 위험한 것은 인간의 ‘프로파간다’이다

최근 인공지능 기술의 발전 속에서 가장 우려되는 현상 중 하나는 ‘할루시네이션(hallucination)’이다. 이는 인공지능이 실제로 존재하지 않는 정보를 만들어내고, 그것을 실제인 것처럼 제시하는 오류 현상을 의미한다. 존재하지 않는 논문을 인용하거나, 왜곡된 통계를 사실처럼 말하거나, 실존하지 않는 인물이나 사건을 마치 역사적 사실처럼 설명하는 등의 사례가 대표적이다. 이러한 현상은 인공지능이 과거의 사실을 저장해두었다가 회상하는 방식으로 작동하는 것이 아니라, 방대한 언어 데이터 속에서 특정한 문맥에 어울릴 법한 문장을 확률적으로 예측하는 메커니즘에 따라 학습되었기 때문에 발생한다.

많은 이들은 이 현상을 “AI의 치명적인 오류”라 부르며 기술적 문제로 규정한다. 그러나 정작 우리가 더 깊이 성찰해야 할 질문은 이것이다. 인간은 정말로 AI보다 더 진실에 가까운 존재인가? 우리는 정말 ‘진짜’를 말하고 있는가? 오히려 인간은 아주 오래전부터 자기 나름의 ‘할루시네이션’을 만들어 왔고, 때때로 그것을 집단적으로 믿고 따르며 역사와 사회를 구성해왔다. 그리고 그 인간적 환상의 가장 정교하고 위험한 형태는 다름 아닌 ‘프로파간다(propaganda)’였다.

인공지능은 본질적으로 의도(intention)가 없다. 그것은 데이터와 문장을 조합할 뿐이며, 어떤 말이 어떤 맥락에서 통계적으로 잘 어울리는가를 예측할 뿐이다. 말의 내용이 누군가를 해치는가, 조작하는가, 혹은 역사적 진실과 어긋나는가는 인공지능의 관심 밖이다.
그러나 인간은 다르다. 인간은 의도를 가진 존재다. 그리고 그 의도는 종종 감정(emotion), 신념(conviction), 권력(desire for power)과 연결되어 있다. 인간은 자신이 원하는 방향으로 세계를 바라보며, 거짓된 이야기라도 그것이 목적에 부합할 경우 ‘진실처럼’ 말해왔다. 그러므로 인간의 언어는 단지 표현의 수단이 아니라, 타인을 움직이고 조종하며 전체 사회를 형성하는 ‘이데올로기적 장치(ideological apparatus)’로 기능해왔다.

역사를 돌아보면, 인간이 만들어낸 프로파간다는 단순한 오류나 잘못된 정보 전달이 아니었다. 그것은 정확히 타인의 인식과 행동을 조종하기 위해 기획되고 설계된 거짓이었다.
민족주의, 종교 전쟁, 전체주의, 정치 선동은 모두 ‘그럴듯한 거짓’을 반복적으로 주입함으로써, 대중의 공감 능력을 마비시키고 의심하는 능력을 제거하며 스스로가 ‘옳다’고 확신하게 만든 기획된 ‘환상’ 즉 할루시네이션이었다. 그 결과는 참혹했다. 수많은 사람들이 그 ‘진실처럼 보이는 말’에 따라 움직였고, 서로를 적대했고, 전쟁을 일으켰고, 때로는 이웃을 배신했고, 자식을 의심했으며, 결국 진실을 말하려던 자들이 침묵 속에 묻혔다.

AI의 할루시네이션은 교정할 수 있다. 기술적 방법을 통해 정제된 데이터만을 학습하게 하거나, 사실 확인(fact-checking) 기능을 병행하거나, 출처 기반의 응답 시스템을 설계하는 방식으로 충분히 제한 가능하다. 그러나 인간의 프로파간다는 다르다. 그것은 사실을 왜곡할 뿐 아니라, 진실을 말하는 능력 자체를 공격한다. 그것은 논박의 대상이 아니라, ‘절대적 신념으로 구조화된 믿음의 세계(view of reality)’가 된다. 그 안에서 진실은 말해지지 못한 채, 말하기 전에 이미 ‘틀린 말’이라는 낙인을 받는다. 우리가 무엇을 말하느냐보다, 누가 말하느냐, 그가 어떤 진영에 속했는가, 어떤 감정에 부합하는가가 판단의 기준이 되는 순간, 프로파간다는 사회적 사유의 질서를 장악한 거짓의 구조로 기능하게 된다.

실제 사례를 보자. 냉전기 미국을 휩쓴 ‘레드 컴플렉스(Red Complex)’는 공산주의에 대한 이성적 분석이 아니라 집단적 공포로 작동하는 전형적인 프로파간다였다. “당신의 이웃이 공산주의자일 수도 있다”는 식의 문장은 ‘사실’이 아니라 ‘의심의 분위기’를 조성했다. 매카시즘(McCarthyism)은 정보가 아닌 감정에 기반하여, 예술가, 지식인, 종교인, 교사들을 ‘잠재적 위협’으로 간주했다. 그 결과는 무수한 침묵, 직업 박탈, 자살, 그리고 사회적 감시 문화의 일상화였다. 이처럼 프로파간다는 사실의 오류가 아니라, 사유의 방향 자체를 뒤틀어버리는 의도된 감정의 도식화이다.

이런 점에서 지금 우리는 AI의 오류에만 지나치게 민감하게 반응하면서, 정작 인간이 수십 년, 수백 년, 수천 년에 걸쳐 반복해온 거대한 환상의 구조에는 너무나도 둔감하다. 인공지능이 ‘틀린 말’을 한다는 이유로 문제 삼기 전에, 우리는 먼저 인간이 너무 오랫동안 ‘옳다고 여겨온 말들’을 검토해야 한다.
플라톤(Plátōn)은 『국가』에서 “국가를 파괴하는 것은 거짓이 아니라, 진실처럼 가장된 거짓”이라 말했다. 한나 아렌트(Hannah Arendt)는 “전체주의는 거짓을 강요하지 않는다. 오히려 거짓과 진실을 구분할 필요조차 없다고 믿게 만든다”고 경고했다. 프리드리히 니체(Friedrich Nietzsche)는 진리란 고정된 실체가 아니라, 반복된 은유와 상징이 망각을 통해 굳어진 것일 뿐이라고 말했다. 루치안 블라가(Lucian Blaga)는 신비를 덮어야 하는 인간의 책임을 강조하며, 진리는 완전히 드러나는 것이 아니라 모름과 침묵 속에서 스스로를 드러내는 ‘부정 인식(minus-cunoaștere)’의 형태로 온다고 보았다.

그렇기에 지금 필요한 것은 단순한 기술적 개선이 아니다. 우리가 믿고 있는 말들, 우리가 당연시하는 가치들, 우리가 반복하고 있는 구호들 속에 숨겨진 감정과 의도를 꿰뚫어보는 철학적 감각이다. 그것은 단지 AI의 응답을 비판적으로 평가하는 것 보다는, 우리 자신이 어떤 진실을 받아들일 준비가 되어 있는가를 되묻는 일이어야 한다.

우리는 AI의 오류를 교정할 수 있다. 그러나 인간의 신념은, 의심받지 않는 순간부터 가장 위험한 것이 된다. 그 신념은 의심을 배척하고, 질문을 죄로 만들며, 자신이 정답이라는 사실을 증명하려 하지 않고 반복만을 요구한다. 그것은 사실을 말하는 것이 아니라, ‘울리지 않는 문장’을 중계하는 기계로서의 인간을 만들며, 그 순간 진실은 인간의 언어에서 추방된다.

정보는 넘쳐나지만, 사유는 희박해진 시대. 우리는 더 많이 알고 있지만, 더 깊이 생각하지 않는다. 더 빠르게 판단하지만, 더 느리게 흔들리지 않는다. 우리는 더 많은 데이터를 쌓아가지만, 더 적은 울림만을 남긴다.
이제 우리에게 필요한 것은 기계보다 더 빠른 판단이 아니라, “나는 지금 무엇을 믿고 있는가”라는 근원적인 자기 성찰(self-examination)이다.

거짓을 기술로 삼아서는 안된다. 거짓은 울리지 않는 마음 안에서 자란다.
그리고 진짜는, 틀린 말처럼 들릴 때조차, 우리 안에 ‘조용히 흔들리는 공명(共鳴, resonance)’으로 다가온다.

그 공명이 깨어나는 순간, 우리는 더 이상 인공지능를을 탓하지 않는다. 우리는 인공지능의 할루시에이션을 통해 자신을 비추는 거울 앞에 조용히 선다.

그때 우리는 알게 된다.
문제는 기계가 아니라, 그 기계에 프로파간다를 심는 우리 자신이었다.

keyword
작가의 이전글엄마 이야기