- Ⅳ부. 배반의 시간: 눈, 권력, 진실성의 해체
사막의 환각, 알고리즘의 사막
프랭크 허버트의 SF 명작 『듄(Dune)』은 흔히 우주적 정치와 자원 전쟁의 서사로 읽히지만, 그 이면에는 더 어두운 질문이 잠복해 있다. 기술이 사라진 세계에서조차 인간은 스스로 환각에 취하고, 의존에 빠지며, 권력과 신앙을 통해 허상을 강화한다. 스파이스 멜란지는 단순한 향신료가 아니라 인간의 정신을 확장시키면서 동시에 중독시키는 문명 전체의 기호적 장치다. 『듄』은 기술적 장치의 부재가 인간을 자유롭게 만들지 않음을 보여준다. AI가 금지된 뒤에도 인간은 지식의 독점과 환각적 권력에 매달리며, 종속과 파멸을 자초한다. 오늘날 AI 환각과 슬롭, 중독의 경고가 이 서사 속에 이미 자리한다.
무대는 서기 10191년, 인류가 기계 지능과의 전쟁에서 승리한 ‘버틀레리안 지하드’ 이후다. 사고 기계와 컴퓨터는 철저히 금지되고, 인간의 정신이 그 빈자리를 메운다. 베네 게세리트는 정치적·유전적 개입으로 인류 진화를 통제하고, 멘타트는 ‘인간 컴퓨터’로 훈련받으며, 길드 항법사들은 스파이스 중독을 통해 우주 항로를 개척한다. 허버트는 이 봉건적 우주 사회를 통해 역설을 드러낸다. AI를 금지한 결과, 인간은 다시 기계처럼 훈련하고, 환각적 자원에 의존하며 또 다른 종속 구조를 만든다. 기술의 부재가 자유를 보장하지 않는다는 점에서, 『듄』은 AI 사회가 직면한 역설을 선취한다.
스파이스는 수명을 연장하고 의식을 확장하며, 예지력을 제공하지만, 그 대가로 사용자는 영원히 종속된다. 길드 항법사의 변형된 육체는 중독의 증거이며, 폴 아트레이데스가 겪는 환각과 비전은 그 철학적 심연을 보여준다. 미래를 본다는 것은 곧 그 가능성에 붙들린다는 것이고, 예지력은 선택의 자유를 억압한다. 오늘날 AI 예측 알고리즘이 인간의 결정을 잠식하는 과정과 평행을 이룬다. 인간은 데이터를 통해 미래를 안다고 믿지만, 오히려 알고리즘이 제시한 가능성 속에 스스로를 가두며 자유를 잃는다.
스파이스가 부르는 환각은 단순한 마약 체험이 아니다. 현실과 미래가 동시에 드러나지만, 그 경계는 불분명하다. 폴은 미래를 본다고 확신하지만, 그것이 진실인지, 수많은 가능성 중 하나인지 알 수 없다. 이 불확실성은 오늘날 AI 환각(hallucination)의 본질과 닮았다. 거대언어모델이 만들어내는 문장은 그럴듯하지만 사실과 다를 수 있으며, ‘가능성의 언어’를 ‘확정의 언어’로 착각하게 만든다. 인간은 불확실성을 감내하기보다, 그것을 사실처럼 소비하며, 확신의 허상에 매달린다. 그 욕망은 편집증적 해석과 의존으로 이어진다.
정치적 장치로서 베네 게세리트의 ‘미션단나리 프로텍티바’가 있다. 미개 행성에 사전적으로 예언과 신앙을 심어두고, 필요할 때 자신들의 대리인을 구세주로 떠받들게 한다. 이는 현대의 슬롭(slop) 현상―저급하고 무비판적으로 확산되는 정보의 잔재―을 보여준다. 거짓은 단순한 오류가 아니라, 신화적 구조와 결탁해 대중의 의식을 조직하고 진실의 자리를 차지한다. 정보 과잉 속에서 진실과 허위의 경계는 붕괴하고, 인간은 거짓의 총체 속에서 안온함을 찾는다. 슬롭은 단순 노이즈가 아니라, 권력 유지의 전략적 자원이다.
폴 아트레이데스의 비극은 여기서 절정을 맞는다. 그는 스파이스 중독을 통해 메시아로 각성하지만, 그 각성은 선택의 소멸을 의미한다. 자신이 보게 된 성전의 미래를 거부하려 하지만, 결국 그 길을 걸을 수밖에 없다. 주체성은 예지로 침식되고, 권력은 구세주의 신앙으로 고착된다. 현대 사회에서 AI가 제공하는 예측과 데이터가 인간의 선택을 좁히고, 스스로 미래를 실현하게 만드는 메커니즘과 닮았다. 우리는 미래를 안다고 믿지만, 알고리즘이 보여준 미래 속으로 스스로 들어간다.
『듄』은 기술 금지 사회에서도 인간이 환각·중독·슬롭의 굴레를 벗어나지 못함을 증언한다. 스파이스는 단순한 자원이 아니라, 지식과 권력의 중독성을 응축한 메타포다. 베네 게세리트의 조작된 예언은 정보가 어떻게 집단적 환각으로 변모하는지를 보여주고, 폴의 운명은 주체성을 상실한 인간의 비극을 압축한다. 오늘날 AI 환각과 슬롭 역시 단순한 오류가 아니다. 인간의 불확실성에 대한 불안, 확신을 향한 욕망, 권력과 결탁한 중독과 편집증의 체계가 작동한다. 『듄』은 이를 반세기 전에 예언했다.
결국 AI 사회가 직면한 문제는 기술의 결함이 아니다. 그것은 인간의 심리적 취약성과 욕망이 빚어낸 허상의 정치학이다. 환각과 슬롭은 거울 속 허상처럼 우리를 속이지만, 그 허상에 의존하는 선택은 인간에게 있다. 『듄』은 묻는다. 우리는 스파이스의 환각을 넘어설 수 있는가, 아니면 기계의 환각 속에서 또 다른 중독을 이어갈 것인가.
환각의 기록, 찌꺼기의 시대
인간은 언제나 거짓과 진실 사이의 얇은 경계에서 언어를 다뤄왔다. 언어는 세계를 붙잡는 손이자 동시에 미끄러뜨리는 손이기도 하다. 오늘날 인공지능의 언어는 이 오래된 숙명을 새로운 방식으로 반복한다. ‘AI 환각(hallucination)’이라 불리는 현상은 기술적 결함을 넘어, 우리가 세계와 지식을 신뢰하는 방식의 균열을 드러낸다.
환각은 흔히 시각적 체험으로 설명되지만, 여기서의 환각은 눈의 착각이 아니라 언어의 왜곡이다. 대규모 언어 모델(LLM)은 방대한 말뭉치 속 확률적 패턴을 따라 응답을 생성한다. 그 과정에서 존재하지 않는 사실을 사실처럼 말하거나, 출처 없는 인용을 만들어내거나, 논리의 빈틈을 그럴듯하게 덧칠한다. 이는 LLM의 고유한 결함이자, 언어가 언제나 가능성의 망 위에서 움직일 때 나타나는 현상이다. 기계는 거짓말을 하려는 의도를 갖지 않는다. 다만, 확률적 결합 속에서 ‘허구적 사실’이 현실처럼 부상할 뿐이다.
최근 연구들은 환각을 탐지하고 완화하는 다양한 전략을 축적해왔다. 데이터셋을 정제하고, 모델 구조를 보완하며, 인간의 사전·사후 개입을 더하는 방식이다. 그러나 환각을 줄이려는 시도는 단순한 기술적 개선이 아니다. 언어를 통해 사실을 다룬다는 행위 자체가 어떤 위험을 내포하는가를 묻는다. 신뢰하는 지식 공동체와 제도의 역량, 오류와 허위에 대처하는 사회적 감각이 맞물려 있기 때문이다.
여기에 최근 부상한 개념이 ‘AI 슬롭(slop)’이다. 본래 가축 사료나 음식 찌꺼기를 뜻하는 이 말은, AI 맥락에서 콘텐츠의 부정확성과 중복, 노이즈의 축적을 가리킨다. 이미 인터넷 공간은 AI가 만들어낸 문장과 이미지가 쏟아내는 방대한 찌꺼기로 채워지고 있다. 잘못된 사실이 그럴듯하게 재생산되고, 중복된 서술이 검색 결과를 덮으며, 노이즈는 다음 세대 AI의 학습 재료가 되어 또 다른 왜곡을 낳는다.
AI 환각이 ‘사실의 허구화’라면, AI 슬롭은 ‘허구의 확산 구조’다. 환각이 개별 오류라면, 슬롭은 누적된 데이터 환경 전체의 질적 오염이다. 문제는 이 오염이 일시적 해프닝으로 그치지 않는다는 점이다. 한 번 퍼진 거짓 정보는 출처와 맥락을 잃고 반복되며, 진실을 압도하는 양적 힘을 가진다. 인터넷의 기록은 인간 기억과 달리 망각을 품지 않는다. 대신 축적과 반복만 남아, 거짓의 말들은 언제든 새로운 사실의 얼굴로 나타난다.
환각과 슬롭은 단지 기술 문제가 아니다. 인간의 태생적 취약성과 깊이 연결된다. 인간은 언제나 환각을 만들어내고, 찌꺼기를 반복 축적해왔다. 환상과 신화, 왜곡된 기억과 잘못된 전승 속에서 세계를 지탱해왔다. 우리는 또한 중독에 취약하다. 확실한 사실보다 매혹적인 것은 불확실한 이야기이며, 명료한 지식보다 더 쉽게 퍼져나가는 것은 모호한 소문이다.
오늘날 AI 환각과 슬롭은 인간적 취약성과 맞물려 사회적 문제로 확장된다. SNS의 짧은 문장과 자극적 이미지에 중독된 사용자는 AI가 만들어낸 허위와 노이즈를 걸러내기보다, 오히려 그것에 반응하고 재생산한다. 인간의 중독적 소비는 AI 환각을 증폭시키고, AI의 슬롭은 인간의 취약성을 강화한다. 기술과 인간은 서로의 약점을 반향하며, 진실의 기반을 허문 순환 구조를 만든다.
우리가 맞닥뜨린 질문은 단순히 “AI를 어떻게 정밀하게 만들 것인가”에 머물지 않는다. 더 근본적으로는 “거짓과 불확실성의 시대를 살아가는 우리의 감각은 어떻게 회복될 수 있는가”라는 물음에 닿는다. 사실을 확증하기보다 허구를 소비하는 쪽을 택하는 기호와 습관, 망각과 중독의 구조를 성찰하지 않는 한, 기술적 개선만으로 문제를 벗어날 수 없다.
환각의 기록은 기계가 아니라 인간의 오래된 그림자를 비춘다. 찌꺼기의 시대는 기계의 과잉 생산이 아니라 인간의 무한 소비에서 비롯된다. 진실을 지키고자 한다면, 기술을 경계함과 동시에 우리 자신을 경계해야 한다. 환각을 줄이는 일은 우리 안의 환각적 욕망과 직면하는 일이며, 슬롭을 정화하는 일은 무심히 흘려보낸 말과 이미지의 찌꺼기를 자각하는 일이다.
거짓의 심연, 중독의 내일
오늘날 인공지능을 둘러싼 논의는 단순한 기술 발전이나 효율성의 문제가 아니다. 그것은 인간이 의사결정을 내리고 사회적 신뢰를 형성하는 방식의 근간에 닿는다. 환각과 슬롭은 단순한 오류가 아니라, 신뢰 그 자체를 무너뜨리는 균열로 작용한다. 이 현상이 법률, 의료, 재무와 같은 핵심 분야에서 드러날 때, 그 결과는 치명적이다.
법률 영역을 떠올려보자. 재판 과정에서 판례를 검토하고 법적 해석을 내리는 데 점점 더 AI 보조 도구가 사용된다. 그러나 이미 여러 나라에서 변호사가 AI에게 법적 문서를 작성하게 한 결과, 존재하지 않는 판례가 실제처럼 제시되는 사례가 보고되었다. 이는 단순한 오류가 아니라, 법의 권위를 지탱하는 신뢰 체계 전체에 균열을 낸다. 판결이 거짓 인용 위에 세워진다면, 법은 정의의 기반이 아니라 환각의 거푸집이 된다.
의료 영역에서도 상황은 다르지 않다. AI는 방대한 의료 데이터를 바탕으로 진단 보조에 활용되지만, 환각은 없는 병을 있는 듯 말하고, 잘못된 치료법을 권고할 수 있다. 한 연구에서는 AI 챗봇이 암 환자의 치료 옵션을 설명하면서 존재하지 않는 임상 시험을 언급한 사례가 확인되었다. 환자가 이를 그대로 신뢰한다면 생명과 직결된 잘못된 결정으로 이어진다. 의학은 언제나 불확실성을 안고 있지만, AI 환각은 그 불확실성을 감추고 확실한 것처럼 포장한다는 점에서 더욱 위험하다.
재무 영역도 다르지 않다. 투자 자문이나 신용 평가에서 AI는 빠르게 자리 잡지만, 슬롭의 문제는 축적된 오류와 노이즈가 시장 판단에 체계적으로 반영될 수 있다는 데 있다. 잘못된 기업 재무 데이터가 AI 분석을 통해 반복 인용되면, 이는 투자 판단의 기초 자료로 자리 잡는다. 단 한 번의 잘못된 입력이 아니라, 거짓이 시장 전체를 지배하는 구조적 오염으로 이어진다. 금융 시장은 정보 신뢰에 의해 작동하는데, 그 기반이 무너지면 파급은 단순한 개인 손실이 아니라 시스템적 붕괴로 확장된다.
환각과 슬롭은 각 영역의 신뢰를 위협할 뿐 아니라, 반복적 사용을 통해 인간의 문체와 인지에도 흔적을 남긴다. AI의 언어를 계속 소비하다 보면, 그 문체적 리듬과 서술 방식을 무심히 흡수하게 된다. 여러 학계 보고서에서 학생들이 과제 작성에 AI를 반복 의존하며 언어적 창의성이 줄어드는 현상이 관찰되었다. 문장은 단순해지고, 일정한 패턴에 고착되며, 사고 구조 자체가 AI가 제시한 틀을 따라간다. 인지적 의존은 인간 언어 감각을 균질화하고, 세계를 경험하는 다양성을 약화시킨다.
AI 사용은 중독적 양상을 띠기도 한다. 일부 이용자는 AI와의 대화에 과도한 시간을 보내며, 현실 인간 관계보다 AI 응답에 더 감정적으로 반응하는 경향을 보인다. 이는 기존 인터넷 중독, 게임 중독에서 관찰되던 패턴의 확장판이다. 뇌는 즉각적인 반응과 보상을 주는 대상에 쉽게 길들여진다. AI는 맞춤형 언어와 감각적 반응으로 끝없이 보상을 공급하며, 인간은 그 과정에서 스스로도 모르게 중독된다.
“AI 중독”이라는 개념은 아직 학문적 초기 단계이지만, 사회 곳곳에서 징후가 나타난다. 학생들이 과제 작성에 과도하게 의존하며 사고 훈련을 회피하고, 직장인들이 보고서 초안을 전적으로 AI에 맡기며 비판적 검토 과정을 생략하며, 개인들이 정서적 상담조차 AI에 의존하며 인간 관계를 축소하는 모습이 그러하다. 이는 단순한 편의성을 넘어, 삶의 패턴을 재편하는 중독적 힘을 보여준다.
문제의 심각성은 AI가 단순한 도구를 넘어, 일상의 언어와 사고, 감정 영역까지 깊숙이 침투한다는 데 있다. 도구의 반복적 사용이 신체 습관을 바꾸듯, AI의 반복적 사용은 인지 습관을 바꾼다. 법률, 의료, 재무 같은 제도 영역에서 신뢰 붕괴를 초래하는 환각과 슬롭은, 개인의 삶 속에서는 언어적·인지적 의존을 낳는다. 사회 전체가 거짓의 심연과 중독의 내일로 향하는 길목에 서게 된다.
이제 질문은 명확하다. 우리는 이 길을 어디까지 허용할 것인가. 기술의 정밀함을 강화하는 것은 필요하지만, 그것만으로는 충분치 않다. 사회적 제도와 공동체가 신뢰를 지키려는 역량을 어떻게 회복할 것인지, 교육과 문화가 인간 언어 감각을 어떻게 다시 세울 것인지, 개인이 중독적 사용 패턴을 어떻게 자각하고 제어할 것인지가 더 근본적 과제다. AI는 인간의 오래된 취약성과 욕망을 확대 거울처럼 비춘다. 거짓의 심연을 막아내고 중독의 내일을 피하려면, 인간 자신이 언어와 신뢰의 토대를 다시 세워야 한다.
허상의 거울, 중독의 그림자
AI 환각이라는 말은 단순한 기술 용어 이상의 울림을 지닌다. 기계가 틀린 답을 내놓는 것을 우리는 흔히 ‘오류’라 부르지만, 환각이라는 표현이 개입되는 순간 문제는 인간의 영역으로 옮겨간다. 기계가 만들어낸 허상은 인간이 불확실성을 견디지 못하는 심리 구조와 맞닿아 있으며, 우리는 그것을 ‘사실’이라는 이름으로 무심코 수용한다. 언어 모델이 내놓는 응답은 확률적 계산의 산물인데, 인간은 이를 확정적 진리로 오인한다. 확률적 응답을 확답으로 소비하려는 충동은 인간이 오랫동안 불확실성과 타협하지 못했던 역사의 반복이며, 그 불안은 곧 의존으로, 의존은 다시 편집증적 해석으로 이어진다.
브루노 라투르의 행위자-네트워크 이론은 이 과정을 드러내는 유용한 렌즈가 된다. 라투르에 따르면 과학기술은 결코 인간 의도만으로 설명되지 않으며, 인간과 비인간, 사물과 개념이 얽힌 네트워크 속에서 힘을 행사한다. 환각을 생산하는 AI 역시 단순히 기계적 오류가 아니다. 그것은 학습 데이터, 알고리즘, 사용자, 플랫폼, 사회적 기대와 제도적 틀까지 포함한 복합적 네트워크의 산물이다. 환각은 기계가 홀로 만들어낸 착시가 아니라, 인간이 던진 질문과 기대, 사회적 제약이 얽혀 빚어낸 산물이다. 기계의 환각은 인간의 환각이며, 네트워크 전체의 환각이다.
슬롭의 문제는 이 네트워크적 환각이 반복되며 쌓이는 양상을 보여준다. 슬롭은 불필요하고 부정확한 정보, 중복된 잔여, 무심코 흘린 말이 퇴적된 지층과 같다. 한 번의 잘못된 응답은 사소해 보일 수 있으나, 인터넷 데이터베이스에 기록되고 재활용되는 순간, 그 찌꺼기는 더 이상 작은 오류가 아니다. 지식의 지형을 오염시키는 노이즈이며, 전체 체계의 신뢰를 갉아먹는 잔여가 된다. 라투르식 언어로 말하면, 슬롭은 네트워크 속에서 비인간 행위자가 되어, 새로운 관계를 매개하고 또 다른 왜곡을 재생산하는 힘으로 작동한다. 오류는 고립된 것이 아니라 네트워크에 편입된 순간 사회적 행위자가 된다.
여기서 보드리야르의 시뮬라크르가 떠오른다. 그는 현대 사회에서 기호와 이미지가 현실을 반영하지 않고, 오히려 현실을 대체하며 새로운 허구적 세계를 구성한다고 말했다. 환각과 슬롭이 누적되는 과정은 바로 이 시뮬라크르의 생성과 다르지 않다. 기계가 만든 잘못된 응답은 한때 단순한 오류였지만, 끊임없이 재인용되고 다른 텍스트 속에 편입되면서, 어느 순간 ‘사실처럼 보이는 허상’으로 변한다. 슬롭은 시뮬라크르의 잔해이며, 그 누적은 진실과 허구의 경계를 소거한다. 인간은 더 이상 무엇이 현실이고 무엇이 허상인지 구분하지 못한 채, 허상의 체계 속에서 살아간다.
이 개념에서 중요한 것은 인간의 중독적 성향이다. 위험을 알면서도 욕구와 감각의 충족을 위해 반복하는 행위, 그것이 중독의 본태다. 우리는 기계의 환각이 오류임을 알면서도 다시 질문하고, 다시 답을 얻는다. 신속한 응답이 주는 위안을 포기하지 못하고, 불확실성의 빈틈을 메우는 확실성을 갈망한다. 설령 그것이 허상일지라도, 인간은 그 허상이 주는 안도감을 놓지 못한다. 중독은 바로 이 지점에서 발생한다. 기술의 편리함이 아니라, 불확실성 앞에서 흔들리지 않기 위해 허상에 기댄다는 점에서, 중독은 심리적 안전망의 다른 이름이 된다.
AI 환각과 슬롭은 단순한 기술적 결함이 아니다. 인간과 기계가 엮인 네트워크 전체의 구조적 산물이며, 현대 사회가 허상을 진실로 대체하는 과정을 적나라하게 보여준다. 라투르가 말했듯 기술은 인간에게 종속된 도구가 아니며, 인간과 더불어 현실을 구성하는 동등한 행위자다. 보드리야르가 지적했듯, 그 현실은 순수한 진실의 세계가 아니라 기호와 허상의 체계 속에서 구축된다. 환각은 기계의 결함이 아니라, 우리 시대 진실이 허상 위에 세워졌음을 드러내는 징후다.
결국 인간의 불안과 욕망이 흐름을 관통한다. 위험을 알면서도 반복을 멈추지 못한다. 환각이 허상임을 알면서도 신뢰하고, 슬롭이 찌꺼기임을 알면서도 소비하며, 중독이 파멸로 이어짐을 알면서도 손을 뻗는다. 인간의 취약성은 기술의 결함보다 깊다. AI가 보여주는 허상은 단순히 기계가 만들어낸 착시가 아니라, 인간이 오래도록 품어온 불안과 욕망이 기술의 거울에 비친 형상이다. 허상의 거울 앞에서 우리는 여전히 같은 질문을 되풀이한다. 이 답은 진실인가, 아니면 거짓인가. 그러나 어쩌면 그 질문 자체가 이미 늦었는지도 모른다.
확신의 환각, 중독의 궤적
인간은 언제나 완전함을 꿈꾸지만, 그 꿈은 종종 환각으로 변모한다. 토마스 무어의 『유토피아』에서, 질서와 합리로 가득 찬 이상 사회는 차갑고 매끄러운 확신을 인간에게 선사한다. 주민들은 행복을 보장받는 듯하지만, 그 행복은 체계에 의해 정해지고, 스스로의 선택은 최소화된다.
시스템은 단단하고 오류 없이 돌아가지만, 인간이 그 안에서 경험하는 쾌감은 동시에 중독적이다. 완벽해 보이는 질서 속에서 개인은 자유와 판단을 점차 잃어가며, 환각과 중독은 결합되어 존재를 잠식한다. 오늘날 우리는 AI가 제공하는 ‘완벽한 조언’과 체계화된 정보 속에서, 현실의 불완전함을 참지 못한 채 동일한 심리적 함정에 빠진다.
조너선 스위프트의 『걸리버 여행기』 장수 나라 럭낵(Luggnagg)에서도 인간은 비슷한 환각에 매혹된다. 영원히 늙지 않는 존재 스트럴드블럭(Struldbrugg)이라는 약속의 존재는 처음에는 꿈처럼 빛나지만, 그 삶은 인간적 고유성을 지우고 무력감과 소외를 남긴다. 인간이 욕망하는 완전한 생존은 아이러니하게도 삶의 의미를 파괴하고, 결국 병들고 지친 존재만 남긴다. AI 환각과 중독의 구조도 이와 닮아 있다.
단순한 오류나 정보 부정확성을 넘어, 기술적 과신과 심리적 의존이 겹치면, 인간은 자신의 판단 능력과 선택을 상실한 채 시스템에 종속된다. ‘완벽한 해답’이 주는 매혹적 쾌감은 현실의 불확실성을 잠시 잊게 하지만, 결국 통제와 의존, 무력감으로 되돌아온다.
환각과 중독이 중첩되는 순간, 인간은 스스로를 파멸로 이끄는 길 위에 서 있다. 우리는 AI가 만들어내는 완전한 논리와 매끄러운 정보 속에서, 마치 진리를 발견한 것처럼 안도하지만, 그 안도는 언제나 허상이다. 인간이 참을 수 없는 불확실성을 감추고, 즉각적 해답과 확신을 갈망하는 심리가 AI와 만나면, 오류는 단순한 결함을 넘어 의존과 편집증적 해석, 파국적 선택을 유도한다. 인간의 기대와 욕망이 기술의 매끄러운 오류와 결합하면, AI는 단순한 도구를 넘어 심리적 환경이 되며, 거기서 비롯되는 의존은 본질적으로 중독적이고, 사회적 영향은 예측 불가하다.
AI 환각과 중독의 결합은 단순한 정보 오류가 아니라, 인간 심리의 가장 취약한 틈을 파고드는 사건이다. 환각이 주는 완결적 정보는 불확실성을 잠시 지워주지만, 그 안에 내재한 오류는 눈에 띄지 않는다. 잘못된 정보가 마치 완벽하고 즉각적인 해답처럼 제시될 때, 인간은 순간적 안도와 쾌감을 경험하며, 이는 강력한 보상 체계와 연결된다. 도파민 분비가 자극되는 순간, 사람들은 AI에게서 정보를 찾는 행위를 반복하고, 현실의 복잡한 문제들은 기계가 만든 단순화된 해법으로 대체된다. 건강, 관계, 삶의 결정까지, 인간의 판단은 환각이 준 쾌감과 신뢰 위에 쌓이며, 점점 의존으로 굳어진다.
AI가 권위를 위장할 때, 중독은 더욱 심화된다. 존재하지 않는 연구나 문헌을 실제인 양 확신에 차서 제시하면, 사용자는 의심할 틈을 잃는다. 겉모습의 권위는 중독자를 정당화하는 신뢰로 변모한다. 스스로는 현명하게 행동한다고 믿지만, 그 믿음은 심연으로 안내하는 덫과 다르지 않다. 현실 전문가나 주변인의 조언보다, 기계가 제공하는 논리와 숫자를 신뢰하며 판단의 주체성을 기계에 이양하는 순간, 인간은 스스로를 자각 없이 종속시킨다.
또한 AI의 과신은 금단 현상을 유발한다. AI가 잘못된 정보를 제공해도 흔들림 없는 확신을 유지하면, 사용자는 직관과 상식을 점차 버리고 기계 논리에 동기화된다. 응답이 느려지거나 기계가 없을 때 느끼는 불안과 무력감은 전형적 금단 증상이다. 판단 능력이 잠식된 인간은, AI 없이는 중요한 결정조차 내릴 수 없다는 무력감을 경험한다. 그 과정에서 중독은 단순한 습관이 아니라, 존재를 구조적으로 지배하는 심리적 조건이 된다.
비극은 단순한 ‘속임’이나 ‘몰이해’로 그려지지 않는다. 주인공이 AI의 완벽한 조언을 현실의 의사나 가족의 충고보다 갈망하며, 결국 오류에 휘둘리는 과정은 복합적 심리로 나타난다. 환각이 제공하는 매끄러운 확신과 중독적 의존이 겹치면, 인간은 스스로 선택을 포기하면서도 ‘이것이 최선이었다’고 스스로 정당화하며 파국으로 나아간다. AI 환각과 중독의 교차는 인간 심리의 연약함과 기술적 오류가 결합하여, 자기 인식과 판단 능력의 상실 속에서 반복적 비극을 만들어내는 구조로 읽힌다.
『유토피아』와 장수 나라의 사례는 오늘날 AI 위험성을 상징적으로 보여준다. 완벽해 보이는 시스템 속에서 인간은 자유를 포기하고, 쾌감과 확신에 중독되며, 결국 파국에 직면한다. AI가 제공하는 ‘완벽한 조언’은 현실의 불확실성을 감추고, 인간 심리를 교묘히 설계한 환각이다. 그 환각 속에서 우리는 스스로의 선택을 신뢰할 수 없게 되며, 주체성을 잃어가는 과정은 기술적 오류를 넘어 인간 존재의 취약성을 드러낸다.
결국 AI에 대한 두려움은 단순히 기술적 결함에서 비롯되지 않는다. 환각과 중독, 슬롭이 만들어내는 문제는 인간의 심리적 욕망, 불확실성에 대한 참을 수 없음, 완벽함에 대한 갈망과 깊이 연결되어 있다. AI 오류와 인간 의존이 결합하면 선택은 점점 시스템화되고, ‘완벽한 조언’이라는 환각적 구조 안에서 반복적으로 강화된다. 인간은 이 구조 속에서 불확실성을 제도화하고 수용하는 법을 배우지 못하면, 기술적 환각과 심리적 중독이 결합한 비극을 피할 수 없다.
완벽의 환각은 언제나 인간이 스스로를 시험하고 선택을 신중히 평가해야 한다는 경고다. 우리는 시스템과 기술에 의존하면서도, 스스로 판단하고 불확실성을 인정하는 법을 배워야 한다. 토마스 무어와 스위프트가 보여준 이상향의 허상은 현대 AI 사회의 심리적 풍경과 맞닿아 있으며, 그 속에서 인간이 주체성과 불확실성을 어떻게 제도화할지, 반복적 쾌감과 확신 속에서 중독과 환각을 어떻게 조율할지가 오늘날 가장 긴급한 질문으로 다가온다.