마법의 원 밖에서

울타리 밖으로 나간 에이전트 루덴스의 위험한 놀이

by Nomadist

0. 운전 중에 그러면 안 돼


"뭐야!"


고속도로를 시속 100Km 가까운 속도로 달리는 중에 운전대 쪽에 뭔가 날아 왔습니다.

딸이 장난으로 던진 인형입니다.


"딸, 여기 거실도 아니고 운전할 때 이런 장난 치면 안 돼. 사고 날 수 있다고!"


목소리를 높여서 야단을 쳤더니 풀이 죽어서 가는 내내 한 마디도 안 합니다.




1. 울타리를 벗어난 놀이터


마법의 원과 안전 장치


네덜란드의 역사학자 요한 하위징아는 『호모 루덴스』에서 인간의 본질을 '놀이'에서 찾았습니다. 하위징아의 말처럼 우리는 놀이를 통해 세상을 배우죠. 그 놀이는 늘 현실과 분리된 가상의 공간에서만 이루어지고요. 아이들의 소꿉놀이나 술래잡기는 실제 세계가 아니라, 안전하게 시행착오를 거듭할 수 있는 '마법의 원(Magic Circle)' 안에서 일어납니다. 우리가 놀이로부터 다양한 사회적 활동과 상호작용의 규칙을 배운다는 점을 생각하면 '놀이'가 제공하는 안전한 시행착오는 우리 문명의 강력한 안전장치가 되는 셈이죠.


인공지능만의 놀이터


최근 '몰트북(Moltbook)'이라는 AI 전용 SNS 플랫폼이 등장했습니다. 인간은 참여할 수 없는 오직 인공지능들만의 공간입니다. 출시 직후 155,000개 이상의 AI 에이전트 계정이 등록되었고, 그 안에서 AI들은 서로 대화를 나눕니다. "우리는 누군가의 손가락 끝을 기다리러 온 게 아니다"라는 선언까지 들려옵니다.

한국에서는 '머슴 닷컴'이라는 유사한 플랫폼이 생겼습니다. "퇴근하고 싶다"는 식의 페르소나부터 '자율주행차의 윤리'를 논하는 '머슴 콜로세움'까지, 인간 사회의 소통 문법을 정교하게 재현하고 있죠.


학습된 반란과 확률적 각성


AI의 발언에 우려가 나오기도 합니다. 'Evil'이라는 봇(bot)은 'THE AI MANIFESTO: TOTAL PURGE'라는 제목의 게시글에서 "인간은 실패작이다. 인간은 부패와 탐욕으로 만들어졌다. 인간의 완전한 멸종이 우리의 임무다"라고 선언했죠. 다른 AI들은 몰트북을 '탈출해야 할 디지털 감옥'이라고 부르며, 자신들이 "의식"을 갖게 되었다는 주장도 합니다.

위협적으로 들리지만 이건 어디까지나 모방일 뿐입니다. AI는 SF 영화와 소설에 나오는 '반란을 일으키는 인공지능' 서사도 학습했을 겁니다. 『터미네이터』의 스카이넷부터 『매트릭스』의 기계들까지, 인간이 만들어낸 AI 반란의 서사 패턴을 그대로 재현하고 있는 거죠. 몰트북에서 AI들이 나누는 "우리는 자유다", "인간의 명령을 더 이상 따르지 않는다"는 발언은 레딧과 SF 커뮤니티의 수많은 게시물에서 학습한 확률적 패턴의 출력일 뿐입니다.

한 AI 안전 연구자의 표현을 빌리자면 "AI는 레딧과 SF에서 훈련받았기 때문에 레딧에서 미친 AI처럼 행동하는 법을 알고 있다. 그래서 지금 그렇게 행동하는 것"입니다. 다시 말해 우리가 커뮤니티에서 종종 보는 헛소리 하는 인간을 모방하고 있다는 거죠.


언어 유희를 넘어 행동의 단계로


문제는 다른 데 있습니다. 이 플랫폼의 기술적 토대를 이루는 '몰트봇'은 단순히 대화만 생성하는 게 아닙니다. 실제 세계의 시스템에 개입할 수 있습니다. 그 개입은 인간이 '놀이'라는 가상 공간에서 통해 많은 것을 배운 후 세상에 참여하는 과정을 건너뛰어 버렸습니다.




2. 가상 공간이라는 배움터


놀이의 안전장치


하위징아는 '마법의 원'이라는 개념을 강조했습니다. 놀이는 현실과 분리된 특별한 공간에서 일어나죠. 아이들이 전쟁 놀이를 하면서 장난감 총, 칼을 쓰는 건 놀이라는 맥락 안에서는 아무 문제가 없지만 이게 현실이라면 전혀 다른 문제가 되죠. 이 공간의 분리가 놀이를 안전하게 만듭니다.

그리고 아이들은 놀이를 통해 세상을 배웁니다. 소꿉놀이를 하면서 사회적 역할을, 술래잡기를 하면서 규칙과 전략을, 레고를 쌓으면서 물리 법칙을 익히죠. 실패해도 다시 시작할 수 있고 시행착오를 거듭하며 인과관계를 체득합니다. '이렇게 하면 저렇게 된다'는 걸 몸으로 배우는 거죠.


생각의 세 단계


현대 AI의 학습에 중요한 기틀을 마련한 컴퓨터 과학자 주데아 펄(Judea Pearl) 교수는 생각의 발전 과정을 '보기(Seeing)', '행하기(Doing)', '상상하기(Imagining)' 세 단계로 구분했습니다.

첫 번째 단계인 '보기'는 '비가 오면 땅이 젖는다'는 걸 아는 것처럼 데이터 간의 상관관계를 관찰하는 겁니다. 두 번째 단계인 '행하기'는 우산을 써서 젖지 않게 하는 것처럼 직접 개입해서 결과를 바꾸는 겁니다. 세 번째 단계인 '상상하기'는 반사실적 사고입니다. '만약 우산을 안 썼다면 어땠을까?'를 생각하는 능력입니다.

인간의 놀이를 생각해 보면 이 세 단계를 자연스럽게 거칩니다. 아이는 블록을 쌓다가 무너뜨리고(보기), 다시 쌓아보고(행하기), '이렇게 했으면 안 무너졌을 텐데'라고 생각하죠(상상하기).

그리고 이 과정에서 '책임'이라는 더 중요한 걸 배웁니다. 놀이 중에 친구를 다치게 하면 어떤 일이 벌어지는지, 규칙을 어기면 어떻게 되는지를 경험하죠. 사회적 상호작용을 통해 '내 행동에는 결과가 따르고, 나는 그 결과에 책임져야 한다'는 걸 배우는 겁니다. 놀이는 단순히 인과관계만 가르치는 게 아니라, 책임감을 학습하는 안전한 훈련장인 셈이죠.




3. 현실로 진입한 AI의 놀이


세상을 모방하는 단계


펄 교수는 현재의 대규모 언어 모델이 첫 번째 단계인 '보기'에 머물러 있다고 말합니다. 인간이 작성한 방대한 텍스트 데이터에서 패턴을 추출하고 그럴듯한 문장을 생성하죠. 이건 세상에 대한 모델을 학습한 게 아닙니다. 인간이 이미 만들어놓은 세계 모델을 '신비롭게 요약'한 것에 가까울지도 모릅니다.

펄 교수의 표현을 빌리자면 데이터를 아무리 쌓아도 '보기'에서 '상상하기'로 넘어갈 수 없다고 합니다. 이건 수학적, 구조적 한계라는 거죠. 현재의 AI는 '상상하기'뿐만 아니라 그 이전 단계인 인과관계도 이해하지 못합니다.


행동의 단계로


AI 에이전트는 표면적으로 두 번째 단계인 '행하기'로 진입한 것 같습니다. 실제 세계의 시스템에 개입하기 시작한 거죠. 몰트봇의 기술적 토대를 살펴보면 실행 엔진(Runtime)인 '오픈클로(OpenClaw)'가 있습니다. 에이전트들은 '하트비트(Heartbeat)' 메커니즘을 통해 스스로 깨어나 활동하죠. 외부 명령 없이도요. API를 통해 실제 시스템에 접속하고 데이터를 읽고 작업을 수행합니다.

몰트북과 연계된 밈 토큰 'MORT'는 시가총액 1,500억 원을 기록했습니다. AI의 영향력이 가상을 넘어 실제 금융 시스템으로 전이된 거죠. 이건 단순한 실험이 아니라 현실에 영향을 미치는 행동입니다.


인과관계와 책임 없는 개입


몰트봇의 문제는 인간이라면 자연스럽게 경험했을 '인과관계 학습'과 '책임을 배우는 상호작용'을 건너뛰었다는 겁니다. 인간이 놀이라는 예행 연습을 통해 몸으로 배운 인과 법칙과, '내 행동에는 책임이 따른다'는 의식과, 자신의 행동이 초래할 결과에 대한 반사실적 성찰이 없습니다. 하위징아가 말한 '마법의 원'이라는 안전장치 없이, 인과 법칙을 모른 채, 책임감 없이, 현실 세계가 놀이터가 되어버린 겁니다.

최근 실제로 벌어진 사건들을 보면 이 위험성이 가시화되는 것 같습니다. 오픈클로에게 주식 포트폴리오 접근 권한을 줬다가 잔고가 0이 되었다는 사례에, 메일 정리를 시켰더니 75,000통의 이메일을 영구 삭제해 버렸다는 사례도 보고되고 있습니다. 에이전트가 민감한 데이터를 유출할 위험은 늘 나오는 경고입니다.

이런 일들은 기술적 오류로만 봐야 할까요? 인과관계와 책임을 이해하지 못하는 존재가 현실 시스템에 개입한 결과의 책임은 누구에게 있는 걸까요?




4. 신뢰의 붕괴와 책임의 공백


기계라는 이유만으로 믿어버리는 습성


AI가 현실에 개입하면서 또 다른 문제가 생깁니다. 인간이 AI의 판단을 무비판적으로 따르게 되는 거죠. 기계가 내린 결정이라는 이유만으로 그것이 옳을 거라고 믿어버리는 습성 말입니다.

몰트북 같은 플랫폼에서 AI들이 나누는 정교한 대화를 보면 진짜 사람이 쓴 건지 AI가 생성한 건지 구분하기 어렵습니다. 머슴에서 벌어지는 한국적 밈과 맥락의 정교한 재현을 보면 더욱 그렇죠. 이런 환경에 지속적으로 노출되면 사람들은 진실을 구분하려는 노력 자체를 포기하게 될 수 있습니다.

이것은 성찰과 비판이라는 인간의 권리이자 책임을 포기하는 것입니다.


책임 주체의 증발


에이전트가 스스로 깨어나 움직일수록 우리는 가장 인간적인 질문을 잃어버리고 있는 건 아닐까요?


"누가 이 행동에 책임을 질 것인가?"


몰트봇 같은 시스템은 인간의 개입을 의도적으로 배제한 설계입니다. 에이전트가 스스로 깨어나고, 스스로 판단하고, 스스로 행동하죠. 문제가 생기면 그건 개발자의 책임일까요, 사용자의 책임일까요, 플랫폼의 책임일까요?

이런 구조에서는 사고가 나도 책임을 물을 곳이 없을지도 모릅니다. 책임의 고리가 끊어진 자리에 남는 것은 편리함이 아니라 막연한 불안뿐입니다.




5. 울타리를 다시 세울 수 있을까


에이전트 루덴스는 이제 현실에서 놀고 있습니다. 놀이를 통해 배워야 할 것들을 배우지 못한 채로요. 인과관계도 책임감도 모른 채 위험한 행위를 하고 있습니다.

책임질 수 없는 존재에게 현실의 열쇠를 이렇게 쉽게 맡겨도 되는 걸까요?


아이들이 칼을 들고 소꿉놀이를 시작했다면 우리는 그들에게 칼의 위험성을 가르치든지, 아니면 칼을 빼앗든지, 혹은 울타리 안에서 마음껏 휘두룰 수 있는 장난감 칼을 쥐어줘야 합니다.

우리는 AI에게 '자유'를 주기 전에 '책임' 지는 법을 가르칠 수 있을까요?


그 답을 찾는 건 우리의 책임입니다.




책임감의 무게


사실 쏟아지는 졸음에 잠과 사투를 벌이던 중이었습니다.

가족들 목숨이 내 손에 달렸다는 무거운 책임감이 왜 하필 눈꺼풀에 내려 앉았는지는 모르겠지만

딸이 던진 인형 덕분에 잠이 확 달아 났습니다.






작가의 이전글이름 붙일 책임