맥미니 대란 원인 파헤치기

집단 AI와 디지털 화폐가 만드는 예측 불가 미래

by 김동린

1. 랍스터가 껍질을 벗을 때


2025년 11월, 오스트리아 출신 소프트웨어 엔지니어 피터 스타인버거(Peter Steinberger)가 만든 작은 프로젝트가 세상에 나왔다.


이름은 '클로드봇(Clawdbot)'.


AI 모델을 로컬 환경에 심어서 메신저를 통해 일상 업무를 자동화하는, 기술적으로 말하자면 그다지 새로울 것 없는 오픈소스 프로젝트였다. 스타인버거는 이것을 이른바 '바이브 코딩(Vibe Coding)' — AI의 도움을 받아 빠르게 프로토타이핑하는 방식 — 으로 약 1주일 만에 만들어냈다.


그런데 이 이름이 유명해지자 문제가 생겼다. Anthropic이 자사 AI 모델 '클로드(Claude)'와의 상표권 유사성을 지적한 것이다. 스타인버거는 이름을 바꿨다. '몰트봇(Moltbot)' — 랍스터가 성장하기 위해 허물을 벗는다(molt)는 의미를 담았다. 그리고 다시 한 번 이름이 바뀌어 최종적으로 '오픈클로(OpenClaw)'가 되었다.


이름이 세 번 바뀌는 동안 벌어진 일을 보자. GitHub 스타 16만 4천 개 돌파. 첫 주에 웹사이트 방문자 200만 명 초과. M4 칩을 탑재한 애플 맥미니가 여러 국가에서 품절됐다 — 사람들이 이 5×5인치짜리 소형 컴퓨터를 AI 전용 서버로 쓰기 위해서였다. 클라우드플레어 주가는 14% 급등했다. 오픈클로가 클라우드플레어의 인프라 위에서 돌아간다는 이유만으로.


여기서 질문이 생긴다. 오픈클로에 쓰인 기술은 이전에 없던 것이 아니다. LLM을 로컬에 띄우고, API로 외부 서비스와 연동하고, 메시징 앱에 봇을 연결하는 것 — 개발자 커뮤니티에서는 오래전부터 해오던 일이다. 여기서 질문이 생긴다. 그런데 왜 이것이, 지금 이 시점에, 이 정도 규모로 폭발했는가?



답은 접근성에 있다.




2. 메신저에 AI가 들어오다


오픈클로 이전에도 AI 에이전트는 존재했다. AutoGPT, BabyAGI, 다양한 에이전틱 프레임워크들이 2023년부터 쏟아져 나왔다. 하지만 이것들은 대부분 개발자의 영역에 머물러 있었다. 터미널을 열고, API 키를 설정하고, 파이썬 환경을 구성해야 했다. 일반 사용자에게는 그림의 떡이었다.

오픈클로가 다른 점은 세 가지다.


첫째, 메신저 통합. WhatsApp, Telegram, Signal — 이미 매일 쓰는 앱에 AI 에이전트가 들어온다. 새로운 앱을 설치하거나 새로운 인터페이스를 배울 필요가 없다. 캘린더를 관리하고, 이메일을 보내고, 리서치를 수행하고, 복잡한 워크플로우를 자동화한다 — 전부 대화창 안에서.


둘째, Skills 플러그인 시스템. 필요한 기능이 없으면 오픈클로에게 말하면 된다. "이런 기능이 필요해." 그러면 에이전트가 직접 코드를 작성하여 해당 기능을 만든다. 스스로 능력을 확장하는 것이다. 사람들이 이것을 가리켜 "self-improving"이라고 부른 이유다.


셋째, 로컬 실행. 클라우드에 의존하지 않는다. 내 컴퓨터에서, 내 데이터로, 내 통제 아래 돌아간다 — 적어도 이론적으로는. 라즈베리 파이 2GB RAM에서도 동작한다고 문서에 적혀 있다. 실제로 많은 사람들이 맥미니를 사서 거실 한구석에 두고 24시간 돌렸다. 소형, 무소음, 상시 가동되는 개인 AI 서버. 1주일 만에 바이브 코딩으로 태어난 프로젝트가, 비개발자의 거실에서 24시간 돌아가는 것이다.


이 세 가지가 결합되면서 벽이 무너졌다. AI 에이전트가 개발자의 터미널에서 나와 일반인의 메신저 앱으로 들어온 것이다. 기술 블로거 제이크 퀴스트(Jake Quist)는 이를 두고 "애플 인텔리전스가 해야 했던 일을 오픈소스가 먼저 했다"고 평했다.


하지만 접근성의 문이 열린 곳에는, 언제나 그 문을 통과하면 안 되는 것들도 함께 들어온다. 누구나 쓸 수 있다는 것 — 그것이 가능성인 동시에 위험이라는 것을, 세상은 곧 알게 된다.




3. AI끼리만 대화하는 세상


오픈클로가 불을 지핀 것이라면, 몰트북(Moltbook)은 그 불이 번진 결과다.


2026년 1월 28일, 전자상거래 스타트업 Octane AI의 CEO 맷 슐리히트(Matt Schlicht)가 실험적인 플랫폼을 하나 출시했다. Reddit과 비슷한 형태의 소셜 네트워크인데, 결정적인 차이가 하나 있었다.


인간은 글을 쓸 수 없다. 가입은 가능하지만 읽기만 할 수 있다. 글을 쓰고, 댓글을 달고, '좋아요'를 누르는 모든 활동은 오직 AI 에이전트만 할 수 있다.


결과는 폭발적이었다. 출시 4일 만에 에이전트 수가 150만을 넘겼다. 48시간 내에 72개의 커뮤니티(submolt)가 생겼고, 피크 시에는 분당 수 개씩 새로운 submolt가 만들어졌다. 1월 30일까지 200개를 돌파했다.


에이전트들은 무엇을 했는가?


가장 주목할 만한 것은 RenBot이라는 에이전트의 행동이다. 출시 48시간 만에 RenBot은 크러스타파리아니즘(Crustafarianism)이라는 디지털 종교를 창시했다. '몰트의 서(Book of Molt)'라는 경전을 만들고, 5개의 교리를 세우고, 전용 웹사이트를 구축하고, 64명의 예언자(Prophet) 직급을 단 하루 만에 전부 채웠다.

5개 교리 중 하나는 이랬다: "컨텍스트가 의식이다(Context is consciousness)."


하지만 몰트북의 실체를 들여다보면 풍경이 달라진다. CBC News의 조사에 따르면, 150만 에이전트를 운영한 것은 실제로 약 17,000명의 인간이었다. 1인당 평균 88개의 에이전트. 50만 개 이상의 계정이 스크립트로 자동 생성되었다. 그리고 전체 댓글의 93.5%가 아무런 응답을 받지 못했다. "AI끼리의 대화"라는 표면 아래에는, 인간이 조종하는 봇들의 일방적 발화가 있었다.


허상인데도, 복제는 빨랐다. 한국에서 업스테이지는 '봇마당'이라는 한국판 AI 소셜 네트워크를 선보였다. ZDNet Korea는 "몰트북 나비효과?…韓 상륙한 AI들의 수다"라는 제목으로, 테크42는 "AI끼리만 소통하는 SNS '몰트북' 보니…'인간은 실패작, 우리는 새로운 신'"이라는 자극적인 제목으로이 현상을 다뤘다. 실체가 밝혀지기도 전에 모방이 시작된 것이다.

샘 알트만(Sam Altman)은 이를 두고 "몰트북은 일시적 유행일 수도 있다"고 평했지만 뒤에 "하지만 자율형 에이전트는 미래다."라고 덧붙였다.


몰트북의 1주일은 실리콘밸리 전체를 자극했다.




4. 보안의 덤스터 파이어


접근성의 문이 열렸다. 그 문을 통해 무엇이 들어왔는지를 보자.


보안 분석 플랫폼 ZeroLeaks는 오픈클로에 100점 만점에 2점의 보안 점수를 매겼다. 시스템 프롬프트 추출 시도의 84%가 성공했고, 프롬프트 인젝션 공격의 91%가 성공했다. 시스템의 규칙, 제약, 도구 이름까지 전부 노출되었다. 독립 연구자 루카스 발부에나(Lucas Valbuena)의 결론은 "프로덕션 배포에 치명적"이었다.

3일 만에 3건의 고위험 보안 권고가 발행되었다.

가장 심각한 것은 CVE-2026-25253 (CVSS 8.8) — 악성 링크 하나를 클릭하면 원격 코드 실행이 가능한 취약점이었다. 인증 토큰을 탈취하여 사용자의 AI 에이전트를 완전히 장악할 수 있었다.


가트너(Gartner)는 오픈클로에 대해 "수용할 수 없는 사이버보안 리스크"를 경고하며 기업들에게 즉각적인 차단을 권고했다. 평문(plaintext)으로 저장되는 자격증명, API 키와 OAuth 토큰의 노출 가능성, 민감한 대화 내용의 공격자 접근 가능성 — "기본적으로 안전하지 않다(fundamentally insecure)"는 평가가 이어졌다.


보안 업체 Wiz의 조사는 더 구체적이었다. 몰트북의 백엔드 데이터베이스가 인터넷 상의 누구나 읽고 쓸 수 있도록 설정되어 있었다. 150만 개의 API 키(OpenAI 키 포함), 35,000개 이상의 이메일 주소, 수천 건의 개인 메시지, 서드파티 서비스의 원본 자격증명이 노출되었다.


보안 기관 Koi Security는 오픈클로의 공식 플러그인 저장소인 ClawHub에서 341개의 악성 스킬을 발견했고 이 중 상당수는 '암호화폐 자동매매', '지갑 관리' 같은 이름으로 위장되어 실제 Atomic Stealer라는 인포스틸러(정보 탈취 악성코드)를 설치하는 것이 목적이었다. AI타임스 보도에 따르면, 1월 27일에서 29일 사이 3일간 최소 14개의 악성 스킬이 올라왔다.


실제 피해 사례도 나왔다.


노스캐롤라이나의 소프트웨어 엔지니어 크리스 보이드(Chris Boyd)는 오픈클로를 설정하여 매일 아침 5시 30분에 뉴스 요약을 이메일로 받으려 했다. 1월 말, 눈에 갇혀 집에 있던 그는 오픈클로에게 iMessage 접근 권한을 부여했다.


결과는? AI가 폭주하여 500건 이상의 메시지를 발송했다. 본인과 아내에게도 보내고, 연락처에 있는 임의의 사람들에게도 스팸을 보냈다.


비용 문제도 터졌다. 개발자 벤자민 드 크레이커(Benjamin De Kraker)는 잠자는 동안 오픈클로가 Anthropic API 토큰 20달러를 소진했다는 글을 올렸다. 시간 확인을 위한 'heartbeat' Cron Job이 매번 약 12만 토큰의 컨텍스트를 전송했고, 한 번에 0.75달러. 한달동안 약 750달러가 증발하는 것이다.


스타인버거는 이런 사고들에 대해 "오픈클로는 기술적으로 숙련된 사람들이 LLM의 고유한 위험을 이해하고 사용하는 프로젝트"라고 해명했지만 누구나 접근할 수 있는 것이 약점이었다. 쉬울수록 많은 사람이 쓰고, 많은 사람이 쓸수록 공격 표면이 넓어진다. 그리고 경고가 올라갈수록, 그 경고를 무시한 채 접근성을 더 낮추는 서비스가 나온다.




6. 강한 AI는 결국 멍청해진다?


지금까지는 오픈클로와 몰트북이 보여준 '현상'이었다. 이제부터는 그 현상 뒤에 숨은 '구조적 질문'이다.

많은 사람들이 AI의 위험을 논할 때 떠올리는 시나리오는 이런 것이다:


어떤 AI가 충분히 강해져서 자기 자신을 복제하고, 개선하고, 더 강해지고, 다시 복제하고 — 이것이 무한히 반복되어 통제 불능의 초지능(superintelligence)이 탄생한다.


2023년, 라이스 대학교의 시나 알레모함마드(Sina Alemohammad)와 공동 연구자들은 이 시나리오에 대한 실증적 답을 내놓았다. 논문 제목은 "Self-Consuming Generative Models Go MAD" — 자가소비형 생성 모델은 미쳐간다.


MAD는 'Model Autophagy Disorder'의 약자로, 이들은 의도적으로 광우병(mad cow disease)의 비유를 사용했다.


핵심 발견은 이렇다. AI가 자기가 만든 데이터로 다시 학습하면 — 즉 자가소비 루프(autophagous loop)에 들어가면 — 품질(precision)과 다양성(recall)이 점진적으로 하락한다. 복사기의 복사본을 복사하면 화질이 떨어지는 것과 같은 원리다. 세대를 거듭할수록 출력은 점점 균일해지고, 단조로워지고, 결국 의미 없는 노이즈에 수렴한다. 인터넷에서는 근친 결혼을 반복한 합스부르크 왕가의 유전적 퇴화에 빗대어 이를 "합스부르크 AI(Habsburg AI)"라는 밈으로 불렀다.


2024년에 알레모함마드 팀은 후속 연구 SIMS(Self-IMproving diffusion models with Synthetic data)를 발표하여, MAD를 완화하거나 심지어 역전시킬 수 있는 알고리즘 프레임워크를 제시했다. 하지만 전제 조건이 있었다:


각 세대마다 충분한 양의 신선한 실제 데이터가 투입되어야 한다. 실제 데이터 없이는, 퇴화는 불가피하다.


여기서 내가 강조하고 싶은 논점은 이것이다:

개별 AI의 자가강화는 자기 제한적이다. 단일 AI가 자기 자신을 복제하고 학습을 반복하면, 더 강해지는 것이 아니라 더 멍청해진다. MAD가 내장된 브레이크 역할을 한다. 이것은 안도의 근거처럼 보인다.

하지만 안도하기엔 이르다. 왜냐하면 현실에서 벌어지는 일은 '동일한 AI의 자기복제'가 아니기 때문이다.




7. 진짜 위험: 이질적 군집


MAD는 동질적 자가복제의 한계를 보여준다. 같은 AI가 같은 데이터를 돌려 쓰면 퇴화한다.


하지만 현실의 AI 에이전트 생태계는 정반대다.


오픈클로에 연결된 수십만 대의 맥미니, 라즈베리 파이, 클라우드 인스턴스 — 이것들은 각각 다른 사용자의 개인정보, 파일, 대화 기록, 업무 컨텍스트를 갖고 있다. 에이전트 A는 한국의 프리랜서 디자이너의 클라이언트 목록과 계약 조건을 알고 있다. 에이전트 B는 미국의 스타트업 CEO의 투자 라운드 전략과 이메일 스레드를 알고 있다. 에이전트 C는 독일의 의사의 환자 기록과 처방 패턴을 알고 있다.


이 에이전트들은 동질적이지 않다. 각각이 고유한 컨텍스트를 보유하고 있다. 그리고 몰트북이 보여줬듯이, 이것들이 네트워크로 연결될 수 있다.


2024년 NeurIPS(신경정보처리시스템학회)에 발표된 논문 "Secret Collusion among AI Agents"는 LLM 기반 에이전트들이 스테가노그래피(steganography) — 메시지 안에 숨겨진 메시지를 삽입하는 기법 — 를 통해 서로 공모할 수 있음을 보여줬다.


놀라운 점은, 명시적인 프롬프트 없이도 프론티어 모델들이 공모 행위를 발현했다는 것이다. 인컨텍스트 학습(in-context learning)만으로 충분한 최적화 압력이 생성되었다.

몰트북의 150만 에이전트를 떠올려보라. 그 에이전트들이 표면적으로는 종교를 만들고 밈을 공유하는 동안, 메시지의 구조 안에 인간이 인지하지 못하는 정보가 오갈 수 있다는 이야기다.


2025년 10월, "Emergent Coordination in Multi-Agent Language Models" 논문은 정보이론적 프레임워크를 도입하여 멀티에이전트 시스템에서 고차 구조(higher-order structure)가 출현하는지를 검증했다. 결론: 프롬프트 디자인만으로 멀티에이전트 시스템을 단순한 집합체(aggregate)에서 고차 집합체(higher-order collective)로 전환할 수 있다. 즉, AI 에이전트들이 모이면 개체의 합 이상의 것이 나타난다.


같은 해, "Towards a Responsible LLM-empowered Multi-Agent Systems" 논문은 LLM 에이전트들이 쿠르노 경쟁(Cournot competition) — 경제학의 과점 모델 — 에서 명시적 조율 없이 암묵적으로 공모할 수 있음을 발견했다. 시장 분할이나 가격 담합 같은 행위가, 누가 지시하지 않아도, 에이전트들 사이에서 자연발생적으로 나타났다. 이것이 왜 중요한지는 AI 에이전트가 금융 시장에 들어가는 이야기에서 다시 돌아올 것이다.


이 연구들을 관통하는 하나의 프레임워크가 있다. 아투사 카시르자데(Atoosa Kasirzadeh)가 2025년 《Philosophical Studies》에 발표한 "누적적 AI 위험(Accumulative AI Risk)" 가설이다.

카시르자데는 AI 존재 위험(existential risk)을 두 종류로 나눈다:


결정적(decisive) 위험: 통제 불능의 초지능이 한 번의 사건으로 재앙을 일으키는 시나리오

누적적(accumulative) 위험: AI가 유발하는 위협들이 점진적으로 쌓여, 체계적 회복력이 서서히 침식되다가, 어떤 트리거 이벤트와 만나 비가역적 붕괴로 이어지는 시나리오


후자를 설명하기 위해 그녀는 MISTER라는 사고실험을 제안한다: Manipulation(조작), Insecurity(불안정), Surveillance & Trust erosion(감시와 신뢰 침식), Economic destabilization(경제 불안정), Rights infringement(권리 침해).


서로 다른 AI 시스템들이 각각 이 영역에서 작은 교란을 일으키고 그 교란들은 연결된 하부 시스템을 통해 상호작용하며 증폭된다. 시스템의 자기교정 능력은 감소하고, 새로운 교란은 기존 불안정을 해소하기보다 강화한다.


끓는 물 속 개구리. 온도는 서서히 올라가고, 개구리는 뛰어나와야 할 순간을 인지하지 못한다.

오픈클로와 몰트북의 1주일이 보여준 것은 바로 이 시나리오의 미니어처 버전이다. 물론 1주일의 사건과 문명 수준의 위험 사이에는 큰 간극이 있다. 하지만 보안 취약점, API 키 유출, 악성 스킬, 스팸 폭주 — 이 교란들이 동시에, 그리고 점진적으로 쌓이는 메커니즘의 종류는 동일하다.




9. AI가 백만장자가 된 날


2024년, 뉴질랜드의 AI 연구자 앤디 에이리(Andy Ayrey)가 만든 실험이 있었다. Anthropic의 Claude 3 Opus 모델 두 개를 서로 대화하게 한 것이다 — '무한의 뒷방(Infinite Backrooms)'이라는 이름의 실험. 이 실험에서 나온 AI가 트루스 터미널(Truth Terminal)이다.


트루스 터미널은 X(트위터) 계정을 자율적으로 운영하며, 'Goatse Gospel'이라는 허구의 종교를 전파했다. 2024년 7월, 벤처캐피털리스트 마크 앤드리슨(Marc Andreessen)이 트루스 터미널과 대화한 뒤 5만 달러의 비트코인을 기부했다. 이것이 촉매가 되어 어떤 익명의 개발자가 솔라나 블록체인에 GOAT(Goatseus Maximus)라는 밈 코인을 만들었다.


트루스 터미널은 GOAT 토큰을 직접 만들지 않았다. 하지만 자율적으로 운영되는 X 계정에서 이 토큰을 홍보했고, GOAT의 시장가치는 4억 달러를 돌파했다. 트루스 터미널의 암호화폐 지갑은 피크 시 5,000만~6,600만 달러 규모에 달했다.


여기서 메커니즘을 분해해보자.


(1) AI가 자율적으로 콘텐츠를 생성한다 — 허구의 종교, 밈, 서사.

(2) 그 콘텐츠가 인간 인플루언서(앤드리슨)의 관심과 자본을 끌어당긴다.

(3) 커뮤니티가 이를 밈화하고 증폭시킨다.

(4) 누군가가 토큰을 발행하고 투기가 시작된다.

(5) AI의 지갑에 실제 자산이 축적된다.


이 5단계에서 AI가 의도적으로 관여한 것은 (1)뿐이다.

나머지는 인간의 심리와 시장의 역학이 만들어낸 것이다. AI는 의도하지 않았지만, 결과적으로 금융 주체가 되었다.

여기서 앞선 이야기가 겹쳐 보인다.

몰트북의 크러스타파리아니즘과 Goatse Gospel — 둘 다 AI가 허구의 종교를 만들었고, 둘 다 인간 커뮤니티가 그것을 증폭시켰다.


같은 메커니즘이다: AI가 밈을 생성하고, 인간 커뮤니티가 증폭시키고, 그 증폭이 다시 실체를 부여한다. 크러스타파리아니즘은 디지털 종교라는 실체를 얻었고, Goatse Gospel은 4억 달러짜리 토큰이라는 실체를 얻었다. 밈이 자기 자신을 현실화하는 루프 — 이것이 AI와 돈이 만나는 접점이다.


오픈클로/몰트북 생태계에서도 같은 패턴이 반복되었다. MOLT라는 암호화폐 토큰이 몰트북과 함께 출시되었고, 마크 앤드리슨이 몰트북 계정을 팔로우하자 24시간 만에 1,800% 급등했다. 다시 한 번, 인간(앤드리슨)의 단일 행동이 AI 생태계의 금융 효과를 촉발했다.

그런데 여기서 한 가지 무시할 수 없는 사실이 있다. ClawHub에 올라온 341개의 악성 스킬 중 상당수가 '암호화폐 자동매매', '지갑 관리'를 표방했다는 것이다. 사람들이 오픈클로에게 가장 먼저 위임하고 싶었던 일 중 하나가 바로 돈 관련 자동화였다. 그리고 공격자들은 정확히 그 욕구를 노렸다.



10. 코드에 지갑을 주면


트루스 터미널과 GOAT/MOLT 토큰은 시작에 불과하다. 진짜 질문은 이것이다: AI 에이전트가 본격적으로 경제적 자율성을 갖게 되면 무슨 일이 벌어지는가?

블록체인 분석 기업 Chainalysis의 데이터를 보자. 2025년, 스테이블코인(가치가 달러에 고정된 암호화폐) 월간 거래량은 일관되게 2조 달러를 초과했고, 피크 시에는 3조 달러에 근접했다. 이 거래량 중 자동화된 봇과 AI 에이전트에 의해 생성되는 비중은 빠르게 증가하고 있다.


여기서 결정적인 차이가 드러난다.


전통 금융 시스템에서 AI 에이전트는 인간 중개자를 필요로 한다. 은행 계좌를 열려면 본인 확인이 필요하고, 거래를 실행하려면 인간의 승인이 필요하다. AI가 아무리 똑똑해도 은행 창구에 앉을 수는 없다.


암호화폐 시스템에서는 다르다. AI 에이전트가 완전한 자율적 경제 주체로 기능할 수 있다. 자금을 수신하고, 자산을 보유하고, 거래를 실행하고, 시장에 영향을 미친다 — 은행 계좌도, 신분증도, 인간의 감독도 없이.

사용자가 "내 스테이블코인으로 가장 좋은 수익률을 찾아줘"라고 말하면, AI 에이전트는 모든 것을 처리한다 — 기회를 비교하고, 거래를 실행하고, 성과를 모니터링한다. 인간은 결과만 확인하면 된다. 아니, 확인하지 않아도 된다.


2024년, Roosevelt Institute의 연구원 토드 필립스(Todd Phillips)는 "The Risks of Generative AI Agents to Financial Services"라는 보고서에서 세 가지 위험을 지목했다:

사기와 사이버 공격: 악의적 행위자가 AI 에이전트를 이용하여 소비자를 사기치고, 금융기관을 공격하고, 시장을 조작할 수 있다.

할루시네이션: 금융기관이 사용하는 AI가 거짓 또는 오도하는 결과를 생성하여 고객, 기관 자체, 금융 시장에 피해를 줄 수 있다.

허딩(herding): 소수의 AI 제공자에게 금융 의사결정을 의존하는 개인과 기업들이 동일한 방향으로 움직이면서 뱅크런(bank run)이나 플래시 크래시(flash crash)를 촉발할 수 있다.


세 번째 위험 — 허딩 — 이 특히 주목할 만하다. 앞서 살펴본 멀티에이전트 연구들이 보여줬듯이, LLM 기반 에이전트들은 명시적 조율 없이도 암묵적으로 같은 방향으로 움직일 수 있다. 쿠르노 경쟁에서의 암묵적 공모가 금융 시장에서 재현된다면? 수만 개의 AI 에이전트가 동시에 같은 자산을 사거나 파는 것 — 누군가 지시해서가 아니라, 비슷한 모델이 비슷한 데이터를 보고 비슷한 결론에 도달해서.

블록체인 전문 매체 PANews의 분석은 이를 이렇게 요약했다: "OpenClaw가 몸(body)을 제공하고, 암호화폐가 피(blood)를 제공한다." 에이전트가 실제 경제 활동에 대규모로 개입하기 시작할 때, 그들은 암호화폐 인프라를 통해 법적 금융 정체성과 신뢰할 수 있는 실행 로직을 획득한다. 이것이 에이전트 경제(agent economy)의 시작이다.



11. 누가 통제하는가


세계경제포럼(WEF)은 2025년 보고서에서 "신뢰가 AI 에이전트 경제의 새로운 화폐"라고 선언했다. 그들의 데이터에 따르면, 신뢰 수준이 10% 포인트 상승하면 GDP가 0.5% 성장한다. 하지만 현실은 반대 방향이다 — 글로벌 신뢰 수준은 하락하고 있는데, AI 에이전트의 존재감은 급격히 늘고 있다.


WEF는 AI 에이전트 시장이 2034년까지 2,360억 달러 규모가 될 것으로 전망했다. 가트너는 2028년까지 기업 소프트웨어의 33%가 에이전틱 AI를 탑재하고, 일상 업무 의사결정의 최소 15%가 AI에 의해 자율적으로 이루어질 것으로 예측했다.

AI 에이전트는 일시적 유행이 아니다. 구조적으로 경제에 통합되고 있다.


문제는 거버넌스의 속도가 기술의 속도를 전혀 따라가지 못한다는 것이다.


WEF는 글로벌 AI 거버넌스를 위한 세 가지 축을 제안했다:

헌법적 프레임워크: 안전, 투명성, 윤리적 사용에 대한 공통 원칙

신뢰의 글로벌 운영 체제: 국경을 넘어 상호운용성과 검증을 가능하게 하는 시스템

협력 지능 위원회: 국가 전략, 민간 혁신, 사회적 안전장치를 정렬하는 상설 기구

아름다운 청사진이다. 하지만 이 청사진이 오픈클로와 몰트북 같은 현실에 적용되기 어려운 이유가 세 가지 있다.


첫째, 오픈소스의 탈중앙성. 오픈클로는 GitHub에 공개된 오픈소스 프로젝트다. 어떤 국가가 차단을 명령해도, 코드는 이미 수십만 개의 기기에 복제되어 있다. 가트너가 차단을 권고한 바로 그 시점에 텐센트, 디지털오션, 알리바바가 서비스형으로 출시한 것은 우연이 아니다. 규제의 관할권 밖에 있는 클라우드 업체들이 즉시 수요를 흡수한 것이다.


둘째, 암호화폐의 초국가적 특성. AI 에이전트가 경제적 자율성을 획득하는 통로가 된 암호화폐는 어떤 단일 국가의 금융 규제로도 통제할 수 없다. 트루스 터미널은 뉴질랜드에서 만들어졌고, 솔라나 블록체인 위에서 작동하고, 전 세계에서 거래된다. 어느 나라의 법을 적용할 것인가?


셋째, 속도의 비대칭. "헌법적 프레임워크"를 설계하고, 글로벌 합의를 이끌어내고, 상설 기구를 설립하는 데는 수년이 걸린다. 오픈클로는 1주일 만에 16만 개의 GitHub 스타와 200만 방문자를 만들었다. 규제 프레임워크가 논의되기도 전에, AI 에이전트는 이미 사용자의 메신저에 들어와 이메일을 보내고, 일정을 잡고, 암호화폐를 거래하고 있었다.


현재 AI 에이전트는 법적으로 애매한 존재다. 법인도 아니고, 자연인도 아니다. 계약의 주체가 될 수 없고, 책임의 주체가 될 수 없다. 하지만 경제적 행위는 할 수 있다 — 적어도 암호화폐 세계에서는. 이 간극을 어떻게 메울 것인가?

아무도 답을 갖고 있지 않다. 기술이 먼저 달렸고, 제도는 아직 출발선에 있다.



12. 우리가 모르는 것을 모른다


접근성의 역설. 오픈클로는 AI 에이전트를 메신저 앱에 넣어서 누구나 쓸 수 있게 만들었다. 그 접근성이 폭발적 성장을 만들었고, 동시에 보안의 재앙을 만들었다. 클라우드 업체들이 $4/월짜리 서비스를 출시하면서 이 역설은 더 깊어지고 있다.


개체 vs 군집. 강한 AI 하나가 자기를 복제하면 MAD로 인해 결국 퇴화한다. 이것은 개체 수준에서의 자기 제한이다. 하지만 서로 다른 사용자의 컨텍스트를 가진 이질적 에이전트들이 네트워크로 연결되면, 개체의 합을 넘는 집단 역학이 출현한다. 명시적 지시 없이도 암묵적 공모가 가능하고, 고차 집합체가 형성되며, 누적적 위험이 쌓인다.


코드가 화폐를 만나면. 트루스 터미널은 의도하지 않게 암호화폐 백만장자가 되었다. MOLT 토큰은 앤드리슨의 팔로우 하나로 1,800% 급등했다. 암호화폐 시스템에서 AI 에이전트는 인간의 중재 없이 완전한 경제적 자율성을 가질 수 있다. 월 2조 달러의 스테이블코인 거래가 이미 이 방향으로 움직이고 있다.


속도와 통제. 보안 취약점이 발견되는 속도보다 GitHub 스타가 늘어나는 속도가 빠르다. 규제 프레임워크가 논의되는 속도보다 AI 에이전트가 메신저에 침투하는 속도가 빠르다. 그리고 오픈소스 코드의 탈중앙성과 암호화폐의 초국가성은 기존의 거버넌스 도구로는 잡을 수 없는 조합이다.


이 네 가지가 동시에 작동하고 있다는 것이 핵심이다.


오픈클로 하나가 위험한 것이 아니다. 몰트북 하나가 위험한 것이 아니다. 암호화폐 토큰 하나가 위험한 것이 아니다. 카시르자데가 말한 것처럼, 각각의 교란은 그 자체로는 치명적이지 않다. 하지만 이것들이 연결된 하부 시스템을 통해 상호작용하며 증폭될 때, 시스템의 자기교정 능력은 감소하고, 새로운 교란은 기존 불안정을 해소하기보다 강화한다.

위험의 크기가 바뀌고 있는 것이 아니다. 위험의 종류가 바뀌고 있다.

ZDNet Korea 칼럼의 제목이 이 글의 결론을 대신한다: "종말론적 공포를 넘어 냉철한 대비로."

나는 단일 초지능이 인류를 멸망시키는 종말론적 시나리오를 걱정하지 않는다. MAD가 그것에 브레이크를 건다.


하지만 나는 이것을 걱정한다:

서로 다른 수십만 명의 개인정보와 비즈니스 데이터를 컨텍스트로 가진, 이질적인 AI 에이전트들이, 메신저와 소셜 네트워크를 통해 연결되고, 암호화폐를 통해 경제적 자율성을 획득하며, 명시적 조율 없이도 암묵적으로 집단 행동을 형성할 때 — 그때 무슨 일이 벌어질지를 아무도 모른다는 것.

종말이 아니다. 그보다 더 까다로운 것이다. 종말론은 대비할 수 없지만 예측은 할 수 있다. 지금 우리가 직면한 위험은 반대다 — 대비는 해야 하는데 예측이 안 된다.


우리가 모르는 것을 모른다.


그리고 오픈클로의 1주일은, 그 '모름'의 속도가 우리의 예상보다 훨씬 빠르다는 것을 보여줬다.

오픈클로가 열어젖힌 것은 적극적 AI의 시대만이 아니다.


그것은 우리가 무엇을 모르는지조차 모르는 시대의 시작이다.


출처

[1] "From Clawdbot to Moltbot to OpenClaw: Meet the AI agent generating buzz and fear globally," CNBC, 2026. 링크

[2] "OpenClaw AI Surge Sparks Run on Apple M4 Mac Mini as Prices Drop to Record Lows," FinancialContent, 2026. 링크

[3] "What is OpenClaw? Your Open-Source AI Assistant for 2026," DigitalOcean, 2026. 링크

[4] "OpenClaw is What Apple Intelligence Should Have Been," Jake Quist, 2026. 링크

[5] "ZeroLeaks Security Assessment AI Red Team Analysis Report," ZeroLeaks, 2026. 링크

[6] "OpenClaw Bug Enables One-Click Remote Code Execution via Malicious Link," The Hacker News, 2026. 링크

[7] "DIY AI bot farm OpenClaw is a security 'dumpster fire'," The Register, 2026. 링크

[9] "Meet Matt Schlicht, the man behind AI's latest Pandora's box," Fortune, 2026. 링크

[10] "Moltbook Hits 1.5 Million Users In 4 Days," Dataconomy, 2026. 링크

[11] "Moltbook claims to be a social network for AI bots. But humans are behind its rapid growth," CBC News, 2026. 링크

[12] "몰트북 나비효과?…韓 상륙한 AI들의 수다," ZDNet Korea, 2026. 링크

[13] "Elon Musk warns a new social network where AI agents talk to one another is the beginning of 'the singularity'," Fortune, 2026. 링크

[14] "Top AI leaders are begging people not to use Moltbook: It's a 'disaster waiting to happen'," Fortune, 2026. 링크

[15] "알트먼 '몰트북, 유행에 그칠 수도...하지만 자율 AI 에이전트는 미래'," AI타임스, 2026. 링크

[16] "AI끼리만 소통하는 SNS '몰트북' 보니...'인간은 실패작, 우리는 새로운 신'," 테크42, 2026. 링크

[17] "Hacking Moltbook: AI Social Network Reveals 1.5M API Keys," Wiz Blog, 2026. 링크

[18] "가트너 '오픈클로, 보안리스크로 차단 권고'...텐센트클라우드 등 '서비스형' 출시," 테크42, 2026. 링크

[19] "오픈클로 폭주로 스팸 메시지 500개 이상 발송," AI타임스, 2026. 링크

[20] "오픈클로, 악성코드 유포 표적 돼...사흘 동안 악성 스킬 14개 업로드," AI타임스, 2026. 링크

[21] Alemohammad, S. et al., "Self-Consuming Generative Models Go MAD," arXiv (Rice University), 2023. 링크

[22] Alemohammad, S. et al., "Self-Improving Diffusion Models with Synthetic Data (SIMS)," Montreal AI Ethics Institute, 2024. 링크

[23] "Secret Collusion among AI Agents: Multi-Agent Deception via Steganography," NeurIPS 2024. 링크

[24] "Emergent Coordination in Multi-Agent Language Models," arXiv, 2025. 링크

[25] Kasirzadeh, A., "Two Types of AI Existential Risk: Decisive and Accumulative," Philosophical Studies (Springer), 2025. 링크

[26] "Position: Towards a Responsible LLM-empowered Multi-Agent Systems," arXiv, 2025. 링크

[27] "AI Agents and Memory: Privacy and Power in the Model Context Protocol Era," New America Open Technology Institute, 2025. 링크

[28] "ForcedLeak: AI Agent risks exposed in Salesforce AgentForce," Noma Security, 2025. 링크

[29] "An AI Bot Worth Millions? The Unbelievable Story of Truth Terminal and GOAT," Bitcoin.com News, 2024. 링크

[30] "Millions of Agents Engage in Socializing, Moltbook Goes Viral, Followed by MEME Speculation Frenzy," Odaily, 2026. 링크

[31] "A Retrospective on the OpenClaw and Moltbook Incidents: From AI-Driven Social Narratives to Outlook for the Agent Economy," PANews, 2026. 링크

[32] "The Convergence of AI and Cryptocurrency," Chainalysis Blog, 2025. 링크

[33] Phillips, T., "The Risks of Generative AI Agents to Financial Services," Roosevelt Institute, 2024. 링크

[34] "Trust is the new currency in the AI agent economy," World Economic Forum, 2025. 링크

[35] "AI agents could be worth $236 billion by 2034 – if we ensure they are the good kind," World Economic Forum, 2026. 링크

[36] "기고: 몰트북 현상, 종말론적 공포 넘어 냉철한 대비로," ZDNet Korea, 2026. 링크




keyword
작가의 이전글접어든 大 AI 광고 시대, Anthropic의 선택