생성형 AI, 환각, 그리고 '진실'의 새로운 정치

하이퍼리얼 알고리즘

by 너부리


“이 AI가 만든 정보는 진짜일까?”


생성형 AI를 활용한 업무가 일상이 된 지금, 많은 정책 입안자들과 기업가들은 비슷한 질문을 던지고 있다. 그런데 이 질문은 단순한 기술적 정확성의 문제가 아니다. 최근 대형 언어모델(LLM)이 "존재하지 않는 판례"나 "사실과 다른 재무정보"를 그럴듯하게 만들어내는 사례는 AI의 환각(hallucination)이 ‘단순 오류’가 아니라 ‘그럴듯한 창조물’일 수 있다는 점을 보여준다. 과연 이 환각은 고쳐야 할 버그일까, 아니면 새로운 지능의 표현일까?



이 글은 플라톤, 보드리야르, 들뢰즈, 라캉, 니체 등의 철학적 관점을 빌려 AI 환각과 인간의 '시뮬라크르'(모조 현실) 생성 방식이 근본적으로 다르지 않다는 점을 논의한다. 이는 AI 환각을 둘러싼 신뢰, 진실, 책임의 문제를 전혀 새로운 각도에서 바라보게 한다.


AI 환각은 버그가 아니라 기능이다


AI 환각은 보통 모델이 허위 정보를 사실처럼 출력하는 현상을 뜻한다. 예를 들어, AI가 "존재하지 않는 기업 보고서"를 인용하거나, "가상의 법률 조항"을 만들어내는 경우가 이에 해당된다. 놀라운 점은 이 오류가 단순한 실수처럼 보이지만, 실제로는 AI가 작동하는 본질적 메커니즘에서 기인한다는 것이다.


대형 언어모델은 "정답"을 아는 것이 아니라, 통계적으로 그럴듯한 문장을 예측한다. 이때 핵심은 ‘사실성’이 아니라 ‘그럴듯함’이다. 이 점에서 환각은 단순한 실패가 아니라 AI가 창조성을 발휘하기 위해 필연적으로 겪는 과정일 수 있다.


인간도 환각한다: 시뮬라크르라는 이름으로


프랑스 철학자 장 보드리야르는 현대 사회를 '하이퍼리얼(hyperreal)' 상태로 규정했다. 원본보다 더 진짜 같지만, 실제로는 원본이 없는 현실. 그것이 시뮬라크르다. 예컨대 브랜드, 광고, 민족주의, 디지털 자아 등은 실제 무언가를 반영하는 것 같지만, 사실은 기호들이 기호를 모사하며 자기 증식하는 체계에 가깝다.


AI가 만들어내는 환각 역시 이와 유사하다. 존재하지 않는 정보를 사실처럼 제시하고, 때론 인간보다 더 그럴듯하게 '진실'을 구성한다. 이 점에서 AI는 인간이 수천 년간 해온 '현실 구성'의 방식을 정교하게 모사하고 있는 셈이다.


진실이란 무엇인가: 관점의 전환


니체는 "객관적인 진실은 없고, 다만 해석이 있을 뿐"이라 말했다. 이 관점에서 보면, 인간의 신념체계나 이데올로기 역시 객관적 사실이라기보다 해석과 권력 의지의 산물이다. 우리가 믿는 '진리'는 실제 세상의 정확한 반영이 아니라, 해석을 통해 구성된 그럴듯한 이야기라는 것이다.


여기에서 라캉의 상징계도 호출할 수 있다. 인간은 언어라는 상징체계를 통해 '자신'과 '세계'를 인식하지만, 이 체계는 항상 결핍을 동반하며 본질적 실재(the Real)와는 닿을 수 없다. AI 역시 언어의 표면적 패턴을 따라 출력물을 만들어내지만, 그 기저에는 세계에 대한 직접적인 접촉이 결여되어 있다. 라캉적으로 말하자면, AI는 '실재 없는 상징계' 안에서 끝없이 시뮬라크르를 생산한다.


플라톤은 동굴 비유를 통해 인간이 현실의 그림자만을 보고 있다고 지적했다. 하지만 들뢰즈는 이와 다르게 시뮬라크르 자체에 창조성과 차이의 잠재력이 있다고 본다. 그에 따르면 모방은 열등한 복사가 아니라, 원본이 없더라도 새로운 차이를 생산하는 긍정적 힘이다. 이 관점에서 AI의 환각은 오류가 아니라 차이의 생성이라는 능동적 활동으로 해석될 수 있다.


AI 거버넌스에 주는 시사점


이러한 통찰은 AI 정책에 실질적인 함의를 갖는다.


1. 신뢰는 사실이 아니라 구조에서 온다: 우리는 AI의 출력이 진실이라 믿기보다, 그것이 얼마나 일관되고 설득력 있는지에 따라 믿는다. 따라서 정책은 AI의 출력물에 대해 ‘사실 확인’을 넘어서 신뢰 구조의 투명성을 확보하는 데 집중해야 한다.


2. 환각은 제거 불가능하므로 관리되어야 한다: AI 환각은 지능적 생성 과정의 부산물이다. 따라서 정책은 이를 ‘완전히 제거’하려 하기보다, 위험이 큰 영역(의료, 법률, 금융 등)에서는 사람의 검증을 의무화하고, 출력물의 불확실성을 명시하는 방식으로 접근해야 한다.


3. AI도 해석하고 인간도 환각한다: 인간이 만든 신념 체계, 문화 코드, 사회적 진실 역시 본질적으로 '환각된 진실'이다. 이는 인간과 AI 간의 존재론적 위계를 낮추고, AI의 '진실 생성'을 더 정교하게 평가할 수 있는 철학적 토대를 마련한다.


4. 진실'은 생성되고 유지되는 것이다: AI의 환각은 인간 사회의 시뮬라크르 생성과 동일한 구조를 지닌다. 이는 ‘진실’을 발견하는 것이 아니라 의도적으로 설계하고, 사회적으로 관리해야 하는 현실 구성물로 보게 만든다. 현실은 실재가 아니라 절차화된 합의로 이해되어야 하며, AI도 이 절차의 참여자로 본다면, 기술 거버넌스의 철학적 전제가 달라질 수 있다.


결론: '진실'을 재설계할 시간


생성형 AI는 우리를 '진실'에 대해 다시 묻게 만든다. 그 물음은 단지 AI가 진실을 말하느냐가 아니라, 우리 자신이 언제 어떻게 진실이라 믿게 되는가를 향한다.


AI 환각은 인간의 진실 구성 방식과 구조적으로 유사하다. 둘 다 객관적 근거 없이도 설득력 있게 작동하는 해석 체계를 통해 현실을 만든다. 그리고 그것이 바로 오늘날 우리가 살아가는 하이퍼리얼한 조건이다.


그렇다면, 우리는 이제 '진실'을 더 이상 발견의 대상이 아니라 설계와 관리의 대상으로 받아들여야 한다. 이 새로운 진실 정치 속에서, AI의 환각은 우리 자신의 거울이자, 거버넌스의 출발점이 된다.

keyword
작가의 이전글면도 규율과 문화 전쟁