OpenClaw는 무한기억과 개인정보 보안이 확실한가?

미디어가 확대하는 오해

OpenClaw(구 ClawdBot, MoltBot)를 둘러싼 오해가 커지고 있다. 미디어와 사용자들 사이에서 이 도구의 실체와 한계가 제대로 전달되지 않으면서, 마치 만능 AI처럼 포장되는 현상이 심화되고 있다. 이는 기술에 대한 정확한 이해 없이 장밋빛 전망만을 부각한 결과다.


1) OpenClaw는 AI가 아니고 사용 비용이 발생한다.


OpenClaw는 독립적인 AI가 아니라 기존 언어모델을 편리하게 사용하도록 돕는 중개 도구다. Anthropic의 Claude나 OpenAI의 GPT 같은 언어모델을 API 방식으로 연결해 주는 인터페이스 역할을 한다. API는 사용한 만큼 비용을 지불하는 종량제 방식이므로, 사용자는 결국 외부 서비스에 돈을 내고 있는 셈이다. 오픈소스 모델을 직접 설치하면 비용이 들지 않는다는 주장도 있지만, 이는 절반만 맞는 이야기다. API 수준의 성능을 내려면 맥 스튜디오나 NVIDIA DGX Spark 같은 고가의 하드웨어가 필수적이기 때문이다. 많은 사람들이 환상적이라고 느끼는 기능들은 사실 Claude나 GPT 중에서도 사용료가 비싼 고급 모델을 통해 구현된 결과물이다.


2) 거짓정보-“OpenClaw는 컴퓨터에 저장해서 기억이 무한대이고, 개인 정보가 유출되지 않는다.”


개인정보 보안과 무한대 기억이라는 주장도 실상을 들여다보면 과장되어 있다. 어제 모 신문사 유튜브에 출연한 기자는 OpenClaw가 개인 컴퓨터에 데이터를 저장하기 때문에 기억이 무한대이고 개인정보가 유출되지 않는다고 설명했다. 하지만 OpenClaw가 언어모델 API를 사용한다는 것은 결국 OpenAI GPT나 Anthropic Claude의 서버로 데이터를 전송한다는 의미다. 진정한 보안을 원한다면 Ollama 같은 도구를 사용해 오픈소스 모델을 로컬에 설치해야 한다. OpenAI의 오픈소스 모델인 OSS, 알리바바의 QWEN, 중국의 DeepSeek, 페이스북의 Llama 같은 모델을 직접 구동해야만 개인정보가 외부로 나가지 않는 것이다. API를 쓰는 한 웹에서 ChatGPT, Gemini를 쓰는 것과 본질적으로 다를 게 없다.


OpenClaw 기억이 무한대라는 주장도 오해다. 일반적으로 기존 언어모델이 기억을 못 한다고 느끼는 이유는 몇 가지가 있다. 첫째, 개인정보를 무작정 기억하면 안 되기 때문에 사용자가 동의한 범위 내에서만 데이터를 저장한다. 반면 OpenClaw는 언어모델과 사용자를 중계하기 때문에 이런 개인정보 보호(컴플라이언스 문제)는 언어 모델 AI인 GPT나 CLAUD에게 전가하고 있는 것이다. “**은 전자상거래 중개자로 제품의 품질에 책임지지 않습니다”과 같은 방식이다.

둘째, 콘텍스트 윈도우의 한계가 있다. 콘텍스트 윈도우는 언어모델이 한 번에 처리할 수 있는 데이터의 최대량을 뜻한다. 월 20달러를 내는 사용자에게는 그 가격에 맞는 크기의 콘텍스트 윈도우가 제공되어서 사용하는 데이터의 한계가 있다. 이 데이터 용량 제한 때문에 언어모델이 기억력이 부족하다고 느끼게 된다.


OpenClaw가 실행되는 컴퓨터에 기억을 저장해서 기억이 무한대라는 말은 일부만 사실이다. OpenClaw는 모든 내용을 활용하지 않는다. 장기 기억과 단기 기억으로 나누어 관리하는데, 장기 기억은 사용자가 명시적으로 기억하라고 지시한 정보나 OpenClaw 내부 기준으로 중요하다고 판단한 일부 데이터만 MEMORY.md 파일에 저장하고 항상 이용한다. 단기 기억은 모든 사용 데이터를 날짜별 파일로 저장해서 모든 기억이라고 할 수 있지만, 기본적으로 오늘과 어제, 단 2일 치만 활용한다. 소스코드를 수정하면 모든 기억 파일을 API로 전달할 수는 있지만, 그러면 언어모델 사용 비용 문제가 발생한다.

종량제 언어모델은 입력 토큰마다 비용을 부과한다. 입력 토큰은 사용자가 언어모델에게 전달하는 정보를 뜻하며, 대략 1 토큰이 1 단어에 해당하여 컴퓨터에 저장된 기억을 언어모델 AI에게 전달하는 데도 비용이 든다. 2026년 1월 기준으로 OpenAI의 GPT-5.2 모델은 입력 토큰 100만 개에 1.75달러, 출력 토큰 100만 개에 14달러인데, 사용 토큰 수량에 따라 비용이 발생한다. Anthropic의 Claude Sonnet 4.5는 입력 토큰 100만 개에 3달러, 출력 토큰 100만 개에 15달러다. 할인 요금도 있지만 따로 설명이 필요한 개념이다. 게다가 API를 사용하더라도 콘텍스트 윈도우의 물리적 한계는 여전히 존재한다. Claude 모델의 경우 기본 콘텍스트 윈도우는 20만 토큰이고, 최대 100만 토큰까지 확장할 수 있다.


이론적으로는 OpenClaw가 무한대의 기억을 가질 수 있지만, 실제로는 비용과 콘텍스트 윈도우 용량이라는 두 가지 장벽이 있다. 개인적으로 오픈소스 언어모델을 설치해서 사용하면 비용 절감과 정보보호가 가능하지만, 그러려면 값비싼 하드웨어를 직접 갖춰야 하고 대형 언어모델 AI에 비해 성능이 나쁠 수 있다.

미디어는 OpenClaw가 무조건 무한대 기억과 철저한 보안이 보장되는 것처럼 포장하지만, 이는 사실의 절반만 말하고 나머지는 감추는 방식이다. 누군가 자동차로 시속 400km를 달릴 수 있다고 말할 때, 그 자동차가 소나타나 아반떼가 아니라 수십억 원짜리 슈퍼카라는 사실을 눈치채야 불필요한 기대와 실망을 피할 수 있다.


OpenClaw를 둘러싼 오해는 기술의 본질보다 겉으로 보이는 모습에 집중한 결과다. 도구의 실체와 한계를 정확히 이해해야 합리적인 선택이 가능하다.


Generated Image February 03, 2026 - 4_38AM.jpeg


매거진의 이전글MoltBot(ClawdBot)에 대한 오해와 진실