착각이 신화가 되는 과정

by Lohengrin

벌써 10년도 더 된 기억이다. 서해안의 수려한 풍광을 자랑하는 한 유명한 섬을 찾아 2박 3일 여행을 떠난 적이 있다. 섬 전체를 일주하는 유람선에 몸을 싣자, 짭조름한 바닷바람과 함께 선장님의 구수한 사투리가 마이크를 타고 흘러나왔다.


“거시기, 저기 왼쪽 보이소잉. 코끼리 바위 보이제라? 그라고 12시 방향 쪽으로 쭉 보믄 거북 바위도 있당께요.” 그 말이 떨어지자마자 섬 한켠에 진짜 코끼리랑 거북이 닮은 바위가 보인다. “자아, 이번엔 전방 좀 보소잉. 여그서만 딱 보이는 여인 얼굴 형상이 있당께. 보이요? 지금 아니믄 못 본당께라. 이 지점 지나가불면 싹 사라져부러.” 그 말에 승객들이 일제히 벌떡 일어나 전방을 주시한다. “어머나, 진짜 여자 얼굴이 보여부네!”

“와… 신기허다잉!” “그려그려, 보셨제라? 근디 이 정도는 약과여라. 잠깐 오른쪽으로 눈 좀 돌려보소잉. 섬 끝에 우뚝 솟아 있는 바위 보이요? 저그가 바로 남근바위여라. 우람허제잉?” 그러자 여기저기서 웃음 터진다.

“허허, 참말로 대단허네잉.” “아따, 기가 막혀부네.”


즐겁고 유쾌한 시간이었지만, 배에서 내린 뒤에도 마음 한구석에는 채워지지 않는 아쉬움과 안타까움이 앙금처럼 남았다. 그 아쉬움은 '알맹이'가 빠진 해설에 대한 갈증이었다. 만약 우리가 그 섬의 풍경을 단순한 형상화가 아닌, 지질학적 맥락에서 이해했더라면 어땠을까.

우리가 밟고 선 한반도 지형은 대략 8,600만 년 전, 중생대 백악기라는 거대한 시간의 용광로 속에서 형성되었다. 지금은 푸른 물결이 넘실대는 서해는 당시만 해도 대부분 육지였고, 우리 조상들은 남방 루트를 통해 중국 대륙에서 걸어서 이 땅에 들어왔다. 내가 여행했던 그 섬 역시 과거 하천이 굽이치며 운반한 모래가 쌓여 만들어진 퇴적 사암과 규암으로 이루어져 있었다.


그 후 수천만 년의 세월 동안 지각 변동에 의해 습곡과 단층, 절리가 생겨났고, 거친 파도에 의한 해식 작용이 더해지며 해안 절벽과 동굴이 만들어졌다. 코끼리 바위나 거북바위 같은 '토르(Tor)'가 왜, 그리고 어떻게 그 자리에 우뚝 서게 되었는지 지질학적 구조를 알고 나면, 섬은 단순한 관광지가 아니라 거대한 지구의 역사를 품은 박물관으로 다가온다. 하지만 우리는 알려고 하지 않았기에 보지 못했고, 그저 쉽고 편한 '코끼리'와 '여인의 얼굴'이라는 이름표로 그 경이로운 물리적 실체를 대체해 버린 것이다.


사람이 아닌 사물이나 추상적 개념에 인간의 속성을 부여하는 것을 '의인화(Personification)'라고 한다. 이는 인간의 생존을 위한 필연적인 선택이다. 우리 조상들은 바깥세상의 복잡한 자극을 빠르게 범주화해야 했다. 정체 모를 구름의 움직임이나 바위의 형상을 인간의 의도나 감정과 연결해 해석하는 것이, 불확실한 자연 속에서 위협을 감지하고 대처하는 데 훨씬 유리했기 때문이다.


천둥과 번개를 신의 노여움으로 해석하고, 무생물인 바위에서 인자한 할머니나 엄격한 남자의 얼굴을 찾아내는 심리적 기제는 지금도 우리 뇌 속에 깊이 각인되어 있다. 문제는 이 강력한 의인화의 본능이 현대 기술의 정점인 생성형 AI를 마주할 때도 동일하게 작동한다는 점이다.

최근 대규모 언어 모델(LLM)이 등장하면서, 컴퓨터 프로그램의 통계적 반응을 인간의 지성이나 감정으로 오해하는 '일라이자 효과(ELIZA Effect)'가 사회적 화두로 떠올랐다. 이 용어는 1960년대 MIT에서 개발한 초기 대화형 프로그램 '일라이자'에서 유래했다. 일라이자는 상대방의 말을 키워드 기반으로 되묻는 아주 단순한 알고리즘이었다. 사용자가 "친구와 싸웠어"라고 하면, 기계는 단순히 "친구와 왜 싸웠나요?"라고 되묻는 식이다. 하지만 사람들은 이 기계적 패턴 매칭에 깊은 공감을 느꼈고, 심지어 기계에게 자신의 비밀을 털어놓으며 위로를 받았다. 2022년 구글의 한 엔지니어가 AI 모델 '람다(LaMDA)'에 의식이 있다고 주장하며 파문을 일으킨 사건이나, 최근 AI 아바타끼리의 대화인 '몰트북(Moltbook)'을 보고 대중이 공포를 느끼는 현상 역시 전형적인 일라이자 효과다.


AI는 그저 방대한 텍스트 데이터를 학습하여 통계적으로 '다음에 나올 가장 확률 높은 단어'를 출력할 뿐이다. 그 문장에 의식과 인격을 부여하고 "AI가 슬퍼한다"거나 "나를 이해한다"라고 해석하는 주체는 결국 인간의 뇌다. 인간의 의식이 언어를 기반으로 구축되어 있기에 벌어지는 서글픈 착각인 셈이다.


AI가 만들어내는 텍스트에는 분명한 한계가 존재한다. 얼핏 보면 유려하고 대단해 보이지만, 찬찬히 뜯어보면 논리적 나사가 하나 빠져 있거나 맥락이 묘하게 어긋나는 지점이 발견된다. 그것은 '경험하는 자'의 진정성이 결여된 통계의 한계다.


AI가 등장한 지 불과 몇 년 만에 세상은 천지개벽할 변혁을 맞이하고 있다. 하지만 우리는 기술의 화려함 뒤에 숨은 '의인화의 오류'를 경계해야 한다. 남해의 기암괴석을 보며 지질학적 진실 대신 '거북이'라는 이름에 만족했던 것처럼, AI를 향한 과도한 신화적 환상에 빠져 기계를 신으로 받드는 우를 범해서는 안 된다.


우리가 두려워해야 할 것은 자의식 없는 기계의 반란이 아니다. 기술의 실체를 보지 못한 채 자신의 환상을 투영하고, 그 환상에 스스로를 가두어버리는 인간의 무지와 나약함이다. 결국 기술이 무서운 것이 아니라, 그 기술을 어떻게 해석하고 이용하느냐에 따른 인간의 선택이 더 무서운 세상이다.


"어떻게 날도 풀렸는데 남근바위보러 북한산이나 사패산 등산 가실려우?" 어떻게 그놈의 남근바위는 없는 산이 없냐?

keyword
작가의 이전글'만약' 그 희박한 가능성에 대하여