OpenClaw 일주일 사용기

일상에서 달라진 것들

by 성대리

OpenClaw를 본격적으로 사용한 지 일주일이 지났습니다.

처음에는 단순한 AI 챗봇 정도로 생각했는데, 지나보니 삶이 너무 변화되어 있었습니다.

이 글에서는 일주일 동안 어떤 변화가 있었는지, 무엇을 자동화했는지,

그리고 시행착오 끝에 어떤 것들을 배웠는지 공유합니다.




자동화의 시작

일주일 만에 등록된 cron job이 30개가 넘었습니다.

매일 아침 눈을 뜨면 이미 준비된 브리핑이 텔레그램에 와 있습니다.


아침 루틴 자동화

매일 아침 8시, 서울 날씨와 오늘 일정이 텔레그램으로 도착합니다. 동시에 테크 트렌드 리포트도 옵니다. Hacker News, Reddit, Product Hunt, GitHub에서 핫한 토픽을 모아서 정리해줍니다. 투자 뉴스도 같은 시간에 받아봅니다. 보유 중인 종목 기준으로 관련 뉴스를 수집해서 보내주거든요.


image.png
image.png


스킬 자동 학습

봇도 스스로 학습합니다. 자정이 되면 하루 동안의 대화를 복기하면서 오류나 새로운 패턴이 있으면 스킬 파일에 반영합니다. 새벽 4시에는 OpenClaw 자체 업데이트와 스킬 리뷰가 진행되고, 아침 8시 5분에는 업데이트된 스킬이 팀 채널에 자동 배포됩니다.


스크린샷 2026-02-06 오후 11.20.08.png


주간 자동화

매주 월요일 아침에는 자동으로 제가 분석하는 데이터를 스크래핑하여 새로고침됩니다. 저녁에는 투자 포트폴리오 주간 리포트가 만들어집니다. 한 주간의 수익률 변동, 주요 뉴스, 시장 동향을 정리해서 보내줍니다.


모델 스위칭 자동화

토큰 비용 절감을 위해 모델 스위칭도 자동화했습니다. 평일에는 Claude Opus, 주말에는 Kimi K2.5로 자동 전환됩니다. 금요일 저녁 6시에 주말 모드로, 일요일 밤 11시에 평일 모드로 전환하는 cron이 돌아갑니다.




RAGFlow로 기억 검색 시스템 구축

OpenClaw는 memory.md와 memory/ 폴더로 대화 기록을 유지합니다.

세션이 바뀌어도 이전 맥락을 기억할 수 있습니다.

하지만 노션에 흩어져 있는 업무 문서, 회의록, 프로젝트 자료까지 기억하기는 어렵습니다.

이 문제를 해결하기 위해 RAGFlow를 연동했습니다.


RAGFlow란?

RAGFlow는 오픈소스 RAG(Retrieval-Augmented Generation) 엔진입니다. 쉽게 말해, 문서를 잘게 쪼개서 벡터 DB에 저장하고, 질문이 들어오면 관련 문서를 찾아서 AI에게 컨텍스트로 전달하는 시스템입니다. Docker로 로컬에 설치할 수 있어서 데이터가 외부로 나가지 않습니다.


일반적인 키워드 검색과 다른 점은 "시맨틱 검색"입니다. 예를 들어 "프로젝트 일정"을 검색하면, 문서에 "프로젝트 일정"이라는 정확한 단어가 없어도 "개발 마일스톤", "출시 계획" 같은 의미적으로 관련된 문서를 찾아줍니다.

image.png


이용하시려면 아래 github 페이지를 들어가시면 됩니다.

https://github.com/infiniflow/ragflow


노션 문서 동기화

매일 밤 22시에 노션의 주요 페이지들이 RAGFlow에 자동 동기화됩니다. 업무 문서, 회의록, 프로젝트 자료 등이 벡터 DB에 저장됩니다. 동기화 실패에 대비해 자정, 2시, 4시, 6시에 순차적으로 재시도하는 로직도 추가했습니다. 덕분에 제가 일어나는 시간에는 이미 모두 동기화가 되어 있습니다.


대화 기록 동기화

각 봇의 memory 폴더도 RAGFlow에 동기화됩니다. memory.md는 최근 맥락을 빠르게 참조하는 용도이고, RAGFlow는 몇 주 전 대화나 특정 주제에 대한 과거 논의를 찾을 때 유용합니다.

"지난달에 그 버그 어떻게 해결했더라?" 같은 질문에도 답할 수 있습니다.


언제 뭘 쓸까?

둘 다 있으니까 언제 뭘 써야 할지 헷갈렸습니다. 그래서 규칙을 정했습니다. 최근 대화나 일상적인 맥락은 memory.md를 먼저 찾아봅니다. 반면 예전에 작성한 문서, 업무 자료, 회의록 같은 건 RAGFlow에서 검색합니다. 복잡한 질문이라 여러 출처가 필요하면 둘 다 활용하고요. 이렇게 나눠두니 검색 속도도 빨라지고, 원하는 정보를 더 정확하게 찾을 수 있게 됐습니다.

덕분에 "저번에 작성한 기획서 내용 뭐였지?", "회의에서 결정된 사항 알려줘" 같은 질문에 답할 수 있게 되었습니다.




봇 전문화: 역할 분리의 여정

처음에는 하나의 봇이 모든 일을 했습니다. 그러다 보니 시스템 프롬프트가 비대해지고, 토큰 소모도 커지고, 전문성도 떨어졌습니다. 그래서 역할별로 봇을 분리했습니다.


현재 운영 중인 봇들

메인 봇 - 종합 비서. 일정 관리, 테크 트렌드, 일상 대화 담당. Claude Opus 사용.

투자 봇 - 투자 분석 봇. 포트폴리오 추적, 뉴스 수집, 주간 리포트 담당. Kimi K2.5 사용 (비용 절감).

데이터 분석 봇 - SQL 쿼리 전문 봇. 서비스 DB 분석, 쿼리 생성 담당. Claude Sonnet 사용.

통계 분석 봇 - GA 데이터 분석 봇. 대시보드 생성, 엑셀 리포트 담당. Claude Sonnet 사용.


분리 과정에서의 해프닝들

스킬셋 충돌 문제:

처음에는 각 봇이 자기만의 스킬 폴더를 가지고 있었습니다.

문제는 같은 스킬을 여러 봇이 다르게 해석하는 것이었습니다.

예를 들어 notion 스킬의 사용법이 봇마다 조금씩 달라, 한 봇에서는 잘 되는데 다른 봇에서는 에러가 나는 상황이 반복되었습니다.


해결책 - 통합 스킬셋:

결국 공통 스킬은 하나의 폴더(workspace/skills)에 통합하고, 각 봇의 설정에서 이 폴더를 참조하도록 변경했습니다. 각 봇은 같은 스킬을 보지만, SOUL.md와 TOOLS.md에서 자신의 역할에 맞게 사용법을 정의합니다.


봇 간 통신 문제:

main 봇이 사용량을 초과하여 응답이 없을 경우, 모든 봇들의 응답이 끊겼습니다.

지금은 sessions_spawn을 사용해서 독립된 세션에서 작업을 수행하고, 결과를 announce하는 방식으로 정리되었습니다. 봇 간 협업이 필요할 때는 이 패턴이 가장 안정적입니다.


토큰 비용 폭발:

모든 봇이 Claude Opus를 쓰면 비용이 감당이 안 됐습니다. 그래서 역할별로 모델을 다르게 설정했습니다. 데이터 분석처럼 정형화된 작업은 Sonnet, 단순 정보 수집은 Kimi K2.5로 분배했습니다.




실제 에피소드: 일주일간의 해프닝들


에피소드 1: 데이터 임의로 만들지 마

노션 페이지를 마크다운 형식으로 변환하는 작업이었습니다.

가장 큰 문제는 봇이 빈 데이터를 "임의의 숫자"로 채워 넣은 것이었습니다.


이 사건 이후 아래 규칙을 추가했습니다

원본 데이터 그대로 유지, 토글 내용 완전히 읽어오기, 임의 수정 절대 금지.

AI가 편의상 데이터를 만들어내는 건 정말 위험합니다.


에피소드 2: 스킬 보안 검토

새로운 스킬을 찾아보다가 문득 걱정이 됐습니다. npm이나 PyPI에서 악성 패키지가 발견됐다는 뉴스를 본 적이 있거든요. AI 에이전트 스킬도 결국 코드인데, 악의적인 스킬이 있으면 어쩌지? 그래서 현재 설치된 스킬들을 전부 검토해봤습니다.

확인한 것들: 외부 서버로 데이터를 몰래 보내진 않는지, 비밀번호나 API 키를 수집하진 않는지, 이상한 URL이 숨겨져 있진 않은지.

다행히 설치된 스킬들은 모두 안전했습니다. 대부분 설명 문서만 있었고,

실행 코드가 있는 스킬도 로컬에서만 동작했습니다.

이후 스킬을 설치전 무조건 코드를 검토하고 승인 없이 임의 설치를 금지하는 조항을 넣었습니다.


에피소드 4: 트렌드 리포트가 재밌어요

저녁 8시 30분에 보내던 테크 트렌드 리포트가 생각보다 재미있었습니다. Hacker News, Reddit, Product Hunt, GitHub Trending에서 핫한 토픽을 모아서 보여주는 건데, 하루에 한 번으로는 부족했습니다. 아침 8시에도 받아보고 싶다고 요청해서 하루 2번으로 늘렸습니다.

스크린샷 2026-02-06 오후 11.26.02.png


마치며

openclaw글을 올렸을때 브런치에서 본 댓글이 떠오릅니다.

"완벽한 AI 비서가 아닌, 또 하나의 팀원."

정말 그렇습니다. 완벽하지 않습니다. 가끔 엉뚱한 답을 하고, 데이터를 임의로 채워 넣기도 하고, 스킬이 제대로 전달되지 않아 헤매기도 합니다.


하지만 그게 팀원이죠. 신입 사원도 처음엔 실수합니다. 중요한 건 피드백을 주면 배운다는 것입니다. "데이터 임의로 만들지 마"라고 한 번 혼내면, 다음부터는 원본 그대로 가져옵니다. 스킬 파일을 정리해주면, 그 다음부터는 제대로 된 결과물을 냅니다.


일주일 만에 30개의 자동화, 5개의 전문 봇, RAGFlow 기억 시스템까지. 혼자서는 절대 못 했을 일입니다.

이제 저는 개인이 아니라, 작은 팀을 이끄는 느낌입니다.

그리고 한 달 후에는 이 팀이 어떻게 성장해 있을지 기대됩니다.

keyword