단순 작업은 Lobster에게, 분석은 AI에게
OpenClaw은 AI 에이전트를 자동화할 수 있는 오픈소스 플랫폼입니다.
텔레그램이나 디스코드 같은 메신저와 연결해두면, AI가 알아서 정해진 시간에 작업을 수행하고 결과를 보내줍니다. 이메일 확인, 뉴스 수집, 데이터 분석 같은 반복 업무를 맡기기에 좋습니다.
그런데 이렇게 매일 AI를 돌리다 보면 은근히 신경 쓰이는 게 있습니다.
바로 토큰 비용입니다.
토큰이란 AI에게 작업을 시킬 때 소모되는 사용량 단위인데, 쉽게 말해 "AI가 읽고 쓰는 글자 수"라고 생각하면 됩니다. 예약 작업(매일 정해진 시간에 자동으로 실행되도록 설정해둔 작업)이 9개 돌아가고, 각 작업마다 AI가 웹을 검색하고, 데이터를 가져오고, 결과를 정리하는 과정을 거치다 보면 토큰 사용량이 눈에 띄게 쌓입니다. 처음엔 "이 정도야"였던 비용이, 한 달 뒤 청구서를 보면 생각보다 꽤 나옵니다.
그래서 시도한 것이 작업 자동화 도구의 도입이었습니다. 구체적으로는 OpenClaw에서 2026년 2월에 출시한 Lobster라는 기능을 적용했습니다.
Lobster는 "어떤 사이트에서 무슨 데이터를 가져올지"를 레시피처럼 미리 적어둔 설정 파일을 기반으로, AI 대신 정해진 순서대로 작업을 실행해주는 도구입니다.
결론부터 말하면, 토큰 사용량을 30에서 40퍼센트 줄이는 데 성공했습니다. 오늘은 그 과정을 공유하려 합니다.
AI 에이전트가 "GitHub에서 요즘 인기 있는 프로젝트를 수집해서 정리해줘"라는 작업을 수행한다고 가정해봅시다. 겉으로 보면 단순해 보이지만, 내부에서는 꽤 복잡한 일이 벌어집니다.
먼저 AI가 "어디서 데이터를 가져올지" 판단합니다. GitHub에서 데이터를 가져오기로 결정하고, 응답을 받아서 읽습니다. 그다음 "이 데이터를 어떤 형식으로 정리할지" 다시 생각합니다. 중간에 에러가 나면 "어떻게 재시도할지"도 AI가 결정합니다. 이 모든 단계마다 AI 모델이 호출되고, 그때마다 토큰이 소모됩니다.
여기서 핵심적인 비효율이 드러납니다. "GitHub에서 데이터를 가져오고, 프로젝트명과 인기도를 추출한다"는 작업은 매번 똑같습니다. 그런데 AI는 매번 이 과정을 처음부터 생각합니다.
사람으로 치면, 매일 같은 출근길을 가면서 매번 지도앱을 켜서 경로를 검색하는 것과 비슷합니다.
이런 비효율은 OpenClaw 사용자들 사이에서 꾸준히 지적되어 왔습니다.
예약 작업이 많아질수록 토큰 비용이 늘어나고, AI가 중간에 "생각"하는 시간 때문에 작업이 느려지거나 시간 초과로 실패하는 경우도 잦았습니다. 이 문제를 해결하기 위해 OpenClaw 팀이 2026년 2월 17일에 출시한 것이 바로 Lobster입니다.
Lobster는 한마디로, AI가 하지 않아도 되는 반복 작업을 AI에게서 빼주는 도구입니다.
기존에 AI가 여러 번 왔다 갔다 하면서 처리하던 작업을, 설정 파일 하나에 미리 정의해둡니다.
이 설정 파일은 요리 레시피와 비슷합니다.
"1단계: GitHub에서 데이터 가져오기, 2단계: 인기 순으로 정렬, 3단계: 결과 저장"처럼 각 단계를 순서대로 적어두는 것입니다. Lobster가 이 레시피대로 실행해주니, AI는 데이터 수집에 관여하지 않고 수집된 결과만 받아서 분석과 글쓰기 같은 창의적 작업에 집중합니다.
실제로 제가 적용한 테크 트렌드 수집을 예로 들겠습니다.
이 작업은 Hacker News, Reddit, GitHub Trending, Product Hunt 등 5개 사이트에서 최신 소식을 수집합니다. 각 사이트에 대해 어떤 데이터를 가져올지, 실패하면 몇 번 재시도할지, 결과를 어떤 형식으로 정리할지가 설정 파일에 정의되어 있습니다.
실패한 사이트를 감지해서 나중에 재시도하는 것까지 자동입니다.
AI가 이 과정에 개입하는 순간은 단 한 번, 최종 결과를 받아서 "이번 주 트렌드 리포트를 작성해줘"라고 요청받을 때뿐입니다.
처음에는 "모든 것을 Lobster로 바꾸면 되겠지"라고 생각했습니다.
하지만 금방 깨달았습니다. AI가 잘하는 일과 Lobster가 잘하는 일이 다르다는 것을요.
데이터 수집, 파일 저장처럼 매번 동일한 패턴으로 반복되는 작업은 Lobster가 압도적으로 효율적입니다.
반면에 수집된 데이터를 보고 "이번 주에 어떤 프로젝트가 왜 주목받고 있는지" 해석하거나, "독자에게 어떤 인사이트를 전달할지" 결정하는 것은 AI가 훨씬 잘합니다.
그래서 채택한 전략이 하이브리드 방식이었습니다.
데이터 수집은 Lobster가, 분석과 글쓰기는 AI가 맡는 구조입니다.
9개 예약 작업에 적용한 결과
실제로 Lobster를 적용한 예약 작업은 총 9개입니다.
일일 업데이트, 자동 업데이트, 신규 프로젝트 스카우팅, 블로그 아이디어 발굴, 주간 GitHub 트렌딩, 테크 트렌드 수집 및 재시도, 아침 브리핑, 오후 테크 트렌드 등입니다.
이 중 가장 효과가 컸던 것은 테크 트렌드 수집이었습니다.
기존에는 5개 사이트를 순회하면서 AI가 매번 "다음은 Reddit을 확인해볼까"하고 판단하는 과정을 거쳤습니다. 사이트마다 AI 호출이 2에서 3회씩 발생했으니, 한 번의 트렌드 수집에 10회 이상의 AI 호출이 필요했습니다. Lobster 적용 후에는 데이터 수집이 한 번에 끝나고, AI는 수집된 결과를 받아서 분석하는 1에서 2회 호출로 줄었습니다.
전체적으로 보면, 2주간 동일한 작업을 Lobster 적용 전후로 비교했을 때 토큰 사용량(AI가 읽고 쓴 총 글자 수) 기준으로 30에서 40퍼센트 감소했습니다. 단순히 비용만 줄어든 게 아니라, 시간 초과로 작업이 중단되는 일도 눈에 띄게 줄었습니다. 기존에는 AI가 중간에 "생각"하는 시간 때문에 전체 작업 시간이 길어져서 시간 초과에 걸리는 경우가 있었는데, Lobster는 단순히 정해진 명령을 순서대로 실행하기 때문에 훨씬 빠릅니다.
비용 절감 외에도 체감한 장점이 있었습니다. 우선 결과의 일관성입니다.
AI에게 같은 작업을 시켜도 매번 미묘하게 다른 방식으로 처리할 수 있는데, Lobster는 항상 정해진 순서대로 실행되기 때문에 결과물의 구조가 일정합니다. 또한 중요한 작업 전에 사람의 확인을 받는 안전 장치나, 작업이 중간에 멈추더라도 처음부터 다시 시작할 필요 없이 멈춘 지점부터 이어서 실행하는 기능도 유용했습니다.
Lobster가 모든 AI 사용자에게 필요한 것은 아닙니다.
ChatGPT로 가끔 질문하는 정도라면 토큰 비용을 걱정할 필요가 없습니다. 하지만 AI 에이전트를 업무 자동화에 활용하고 있다면, 특히 정기적으로 반복되는 작업이 여러 개 있다면 도입을 고려해볼 만합니다.
정리하면 이렇습니다. 하루에 예약 작업이 5개 이상 돌아가거나, 같은 패턴의 데이터 수집을 반복하거나, 토큰 비용이 월 10달러(약 1만 4천 원) 이상이라면 Lobster로 의미있는 비용 절감을 기대할 수 있습니다. 반대로, AI에게 매번 다른 질문을 하거나 반복 패턴이 없는 일회성 작업이 대부분이라면 효과는 미미합니다.
결국 핵심은 "반복되는 작업이 얼마나 있는가"입니다.
AI 에이전트 비용을 줄이는 가장 직관적인 방법은 "AI가 하지 않아도 되는 일을 AI에게서 빼는 것"이었습니다. 데이터 수집은 Lobster에게, 분석과 판단은 AI에게. 이 단순한 역할 분리만으로도 토큰 사용량을 줄일 수 있습니다.
물론 설정 파일을 작성하는 데 초기 시간이 들어갑니다.
하지만 한 번 만들어두면 매일 반복되는 작업에서 계속 절약 효과가 누적됩니다.
오늘 30분 투자해서 내일부터 매일 아끼는 셈입니다.
AI를 더 많이 쓰고 싶은데 비용이 부담된다면, 쓰는 양을 줄이는 것보다
쓰는 방식을 바꿔보는 것을 추천합니다.
OpenClaw Lobster 공식 문서 - https://docs.openclaw.ai/tools/lobster
OpenClaw Lobster GitHub - https://github.com/openclaw/lobster