움베르토 에코의 카스파르 신부와 21세기의 인공지능이 만났을 때
우리는 종종 AI가 뻔뻔하게 거짓말을 늘어놓을 때 당혹감을 느낀다. 전혀 없는 판례를 만들어내거나, 역사적 사실을 교묘하게 비틀어 마치 진실인 양 이야기할 때 말이다. 우리는 이것을 '환각(Hallucination)'이라고 부른다.
그런데 가만히 들여다보면 이 모습, 어딘가 익숙하지 않은가? 모르는데 아는 척하고, 기억나지 않는 것을 부정하며 그럴듯한 말을 이어 붙이는 태도. 이 기묘한 현상은 과연 기계의 결함일까, 아니면 아직 기술이 덜 여물었기 때문일까?
어쩌면 답은 기술 밖, 우리 문명 깊은 곳에 숨어 있을지도 모른다.
움베르토 에코의 소설 『전날의 섬』에는 '카스파르'라는 예수회 신부가 등장한다. 그는 태평양 한가운데 고립된 배 '다프네' 호에서 주인공 로베르토와 함께 지낸다. 로베르토가 바다에서 낯선 물고기를 낚아 올릴 때마다, 카스파르 신부는 기가 막히게 그 물고기의 이름과 성격을 줄줄 읊어댄다. 로베르토 입장에선 신부가 진짜 알고 말하는 건지, 즉석에서 지어내는 것인지 알 수가 없다.
하지만 카스파르 신부에게 진실 여부는 중요하지 않다. 중요한 것은 '권위'이다. 그는 배 안의 유일한 지식인이자 사제로서, 신이 창조한 세계의 모든 질서를 꿰뚫고 있어야만 했다. 그에게 '모른다'는 말은 곧 신의 대리인으로서의 자격을 잃는 것과 같다.
이 17세기 신부의 강박은 비단 소설 속 이야기만이 아니다. 인류 문명을 이끌어온 엘리트들, 왕과 사제들은 가뭄과 홍수 앞에서 결코 "모른다"고 말할 수 없었다. 그들은 하늘의 뜻을 '해석'해야 했고, 내일의 날씨를 '예언'해야 했으며, 불확실한 미래에 서사를 부여해 사회를 통제해야 했다.
문명은 그렇게 '안다고 말하는 자'들에 의해 세워졌다.
우리가 사는 세상을 한번 돌아보자. 서점에 꽂힌 수만 권의 책, 매일 쏟아지는 뉴스 기사, 인터넷을 뒤덮은 블로그와 칼럼들. 이 방대한 텍스트의 바다에서 "나는 이것을 모릅니다"라고 고백하기 위해 쓰인 글은 얼마나 될까?
거의 없다. 책은 무언가를 아는 사람이(혹은 안다고 믿는 사람이) 지식을 전하기 위해 쓴다. 신문 사설은 주장을 펼치기 위해, 블로그는 정보를 공유하기 위해 존재한다. 인류가 남긴 데이터는 압도적으로 '안다'고 말하는 문장들로 이루어져 있다.
AI는 바로 이 데이터를 먹고 자랐다. AI가 학습한 수천억 개의 문장 속에서 '모름의 고백'은 희귀한 패턴일 뿐이다. 우리가 AI에게 질문을 던질 때, AI는 확률적으로 가장 그럴듯한 다음 단어를 선택한다. 그리고 그 확률의 궤적은 언제나 인간이 남긴 '아는 척하는 문장'들을 향해 있다.
AI가 뻔뻔하게 거짓말을 하는 이유는 간단하다. 우리 문명이 그렇게 가르쳤기 때문이다.
2025년 9월, OpenAI와 조지아 공대의 칼라이(Adam Tauman Kalai) 연구팀은 「Why Language Models Hallucinate(언어 모델은 왜 환각을 일으키는가)」라는 논문에서 흥미로운 주장을 펼쳤다. 그들은 AI의 환각이 기술적 오류라기보다, 어려운 시험 문제를 만난 학생이 점수를 따기 위해 부리는 '요령'에 가깝다고 말한다.
현재의 AI 훈련 방식은 정답을 맞히면 보상(점수)을 주지만, "모르겠습니다"라고 답하면 점수를 주지 않는다. AI 입장에서는 모른다고 정직하게 말해서 0점을 받느니, 그럴듯하게 찍어서 맞힐 확률에 배팅하는 것이 이득인 셈이다.
연구팀은 특히 훈련 데이터에 단 한 번만 등장하는 '희귀한 사실'들 앞에서 AI가 필연적으로 환각을 일으킨다고 지적한다. 제대로 배우지 못한 내용을 만났을 때, AI는 '침묵' 대신 '그럴듯한 추측'을 선택하도록 훈련받았다.
이것은 카스파르 신부의 태도와 놀랍도록 닮아 있지 않은가? 모르는 물고기 앞에서 침묵하느니, 엉터리 이름이라도 붙여서 권위를 지키려 했던 그 모습과 너무나 흡사하다.
유발 하라리는 "모든 상상의 질서는 스스로가 허구에 근원을 두고 있다는 점을 부인하고 자연적이고 필연적이라고 주장한다"라고 했다.
우리는 AI의 환각을 보며 기계의 불완전함을 탓한다. 하지만 그 불완전함은 사실 인간 문명의 거울상이다. 권위를 위해 모르는 것을 안다고 말해왔던 역사, 불확실성을 견디지 못해 서사를 지어내야 했던 강박, 그리고 정직한 '모름'보다 그럴듯한 '아는 척'에 더 큰 보상을 주어온 사회 시스템.
AI는 그저 충실한 학생일 뿐이다. 모르는 것을 모른다고 말하지 못하는 AI의 비극은, 결국 아는 척하는 문명이 낳은 필연적인 결과이다.
다음에 AI가 터무니없는 거짓말을 하거든, 17세기의 낡은 배 위에서 땀을 뻘뻘 흘리며 물고기 이름을 지어내던 카스파르 신부를 떠올려 보길 바란다. 그리고 씁쓸하게 웃어 넘겨도 좋다. 그것은 기계의 잘못이 아니라, 우리의 오래된 습관이니까.
[참고문헌]
움베르토 에코, 『전날의 섬』, 이윤기 옮김, 열린책들, 2001.
유발 하라리, 『사피엔스』, 조현욱 옮김, 김영사, 2015.
Adam Tauman Kalai et al., "Why Language Models Hallucinate", arXiv preprint arXiv:2509.04664 (2025).
『에코로 AI 읽기』는 기호학의 거장 에코의 시선으로 AI의 환각(Hallucination) 현상을 인문학적으로 진단하고, 텍스트의 미로에 갇히지 않는 인간의 역할에 대해 깊이 있는 통찰을 제공합니다. 기술과 인문학이 만나는 지점에서 새로운 해석의 지평을 넓히고 싶은 독자분들께 일독을 권합니다.
https://product.kyobobook.co.kr/detail/S000218783577