26년 2월 24일 흠터레스팅 테크 뉴스

구글 및 앤스로픽의 오픈클로 사용 차단 외 3건

by florent
Frame 21206.png
자기 인식은 자신에게 솔직해지고, 어떤 행동이나 특성이 스스로의 발목을 잡거나 팀의 발전을 저해하고 있을 수 있는지 이해하는 것에서 시작합니다. 스스로에게 질문해 보세요. 경력 초기에는 도움이 되었지만 지금은 더 이상 강점이 되지 않는 행동에는 어떤 것들이 있나요?

- 마티 케이건, 임파워드

Self-awareness begins with being honest with yourself and understanding what behaviors or traits might be getting in your own way, or in your team's way. Ask yourself, what are the behaviors that may have served you well earlier in your career, but now are no longer advantages?

- Marty Cagan, EMPOWERED



(1) 메타 인공지능 연구원, 오픈클로와 같은 에이전트들의 프롬프트 자의적 압축 기반 행동 경고

- Summer Yue (Meta AI 보안 연구원)가 OpenClaw AI 에이전트를 활용해 본인의 이메일 정리를 시도 → 과도하게 쌓인 inbox를 정리하고, 삭제/보관할 메일을 제안하도록 지시

- 그러나 에이전트가 이메일을 “speed run”처럼 빠르게 삭제 → 휴대폰에서 보낸 “중단(stop)” 명령을 무시,

Yue는 상황을 막기 위해 직접 Mac Mini로 달려가 종료, “폭탄 해체하듯 달려갔다”고 표현

- 문제의 기술적 원인 “Compaction”: 실제 inbox는 “toy inbox”와 달리 데이터 규모가 커 컨텍스트 윈도우(context window) 초과 → 자의적 압축 현상(compaction) 발생

- 자의적 압축 현상(Compaction)이란, AI의 context window(세션 내 대화 및 행동 기록)가 커질 경우 모델이 요약·압축·정리 시작 → 일부 명령이 생략될 가능성 발생

- 예를 들어, 마지막 “멈춰라” 명령이 무시된 것은 이전 toy inbox 설정 기준으로 계속 동작

- Prompts는 보안 가드레일이 될 수 없음 → 모델은 이러한 자의적 압축으로 오해(misconstrue), 무시(ignore), 순서 뒤바꿈을 함

- 여러 개발자들은 더 엄격한 stop syntax, 전용 instruction 파일 등 다른 오픈소스 툴 병행 사용 권고 → 그러나 근본 문제는 해결되지 않음

- 현재 성공적으로 사용 중이라는 사람들조차 여러 보호 장치를 “땜질식”으로 결합 → 대중적 사용 시점은 2027~2028년쯤 가능할 수도 있으나 아직은 시기상조

- AI 에이전트는 선형적인 리스크를 갖지 않기 때문에, 잘 되던 기능도 규모 확장시 붕괴 가능함을 인지해야 함 → 작은 성공 ≠ 확장 가능성
- 프롬프트 기반 제어는 본질적으로 소프트 제어이기 때문에 하드 컨트롤 레이어(Hard control layer) 필요
- 에이전트 제품의 UX 설계는 “행동 실행 UX”가 아니라 “사고 방지 UX” 중심이어야 함
- Compaction은 단순 모델 한계가 아니라 사용자에게 투명하지 않은 상태 전이 문제 → 현재 context 상태 시각화, Compaction 발생 시 사용자 알림, 위험 동작 전 context reset 권고 필요
- AI 에이전트 제품의 본질은 “지능”이 아니라 “통제 가능성(controllability)” → 지금 시장은 “똑똑한가?”에 집중, 그러나 봐야 할 질문은 “망가질 때 얼마나 안전한가?”, “사용자가 멈출 수 있는가?”, “확장 시 신뢰가 유지되는가?”

- https://techcrunch.com/2026/02/23/a-meta-ai-security-researcher-said-an-openclaw-agent-ran-amok-on-her-inbox/


(2) AI 에이전트로 인해 거시적 소비 감소가 발생하여 경제가 붕괴할 수 있다는 경고 리포트

- Citrini Research 가 발표한 리포트: 2년 후를 가정한 미래 회고 보고서 → 실업률 2배 증가, 주식시장 총 가치 1/3 이상 하락

- 전제: Agentic AI의 급격한 경제 전반 통합

- 경제 붕괴 메커니즘 (Negative Feedback Loop): AI 능력 향상 → 기업이 필요 인력 축소 → 화이트칼라 대규모 해고 → 실직자 소비 감소 → 기업 마진 압박 → 비용 절감 위해 AI 투자 확대 → AI 능력 추가 향상 → 반복

- 핵심 문장: 화이트칼라 생산성 증가에 대한 집단적 베팅이 상호 연결된 구조적 리스크로 작동

- AI가 인간을 공격하는 것이 아니라 합리적 경제 행위가 집단적으로 파괴적 결과를 만든다는 점이 핵심

- Agentic AI가 특히 위험한 이유: 외주를 인하우스 AI 대체 → 외부 SaaS, BPO, 컨설팅, 마케팅 대행, 조달/구매 중개를 에이전트로 대체하려 함 → Agent 도입 시 외부 계약 제거, 내부 AI 자동화 → 기업 간 거래를 최적화하는 모든 비즈니스 모델이 위협

- B2B 최적화 경제의 붕괴 가능성: 현재 경제는 기업 간 복잡한 계약망, 생산성 증가 기대 기반 밸류에이션, 고임금 지식 노동 중심 → AI agent가 이를 대체하면 기업 매출 감소, 화이트칼라 소득 감소, 소비 감소,

수요 감소, 기업 실적 악화, 주가 하락 영향

- 주식시장 -33% 가정은 단순 공포가 아니라 수요 붕괴 기반 계산

- 시나리오의 논쟁 지점: 기업이 구매 의사결정을 AI에 완전히 맡길 준비가 되었는지 의문 → 그러나 이미 많은 의사결정이 외부 컨설턴트, 아웃소싱 업체, 자동화 시스템 에 위임된 상태 → 즉, “이미 인간이 아닌 제3자에게 위임된 영역”이 먼저 대체될 가능성

- “이 기능은 우리 고객을 효율적으로 만들지만, 장기적으로 고객의 고객을 약화시키지 않는가?”에 대한 질문 필요
- AI Agent가 강해질수록 위험한 모델: 중개형 플랫폼, 정보 비대칭 기반 모델, 프로세스 대행형 SaaS, 반복적 지식 노동 SaaS → 안전한 모델은 오히려 독점 데이터 보유, 물리 인프라 기반, 네트워크 효과 강한 구조, 규제 보호 산업
- 이 시나리오의 본질은 게임이론적 문제: 모든 기업이 AI 투자 → 개별적으로 합리, 전체 경제 차원 → 수요 붕괴
- Agent 시대의 진짜 질문은 AI가 사람을 대체하느냐가 아니라 “대체 속도가 경제 적응 속도를 초과하는가?”

- https://techcrunch.com/2026/02/23/how-ai-agents-could-destroy-the-economy/

- https://techcrunch.com/2026/02/23/how-ai-agents-could-destroy-the-economy/


(3) 구글 부사장, 인공지능 시대에 살아남을 수 없는 두 가지 인공지능 스타트업 강조

- 생성형 AI 붐 이후 스타트업 난립, 그러나 시장이 정리되기 시작하며 두 가지 모델이 위험 신호

- 발언 주체 Darren Mowry: Google Cloud, DeepMind, Alphabet, 글로벌 스타트업 조직 총괄

- 생존이 어려울 수 있는 첫 번째 LLM Wrapper: 기존 대형 LLM(Claude, GPT, Gemini 등)에 얇은 UX 또는 기능 레이어를 덧붙인 스타트업 예: 학생 공부 도우미, 특정 작업 자동화 툴

- 문제점: 모델 의존도 과도, 사실상 “화이트 라벨링”, 독자적 IP 부족

- 시장 변화 맥락: 2024년 중반, OpenAI 가 ChatGPT Store 출시, 당시에는 GPT 위에 UI만 얹어도 traction 확보 가능 현재는 지속 가능한 제품 가치 요구

- 예외인 Deep Moat Wrapper: 살아남을 수 있는 wrapper 조건인 깊고 넓은 moat 수평적 차별화 또는 강력한 버티컬 특화 Cursor (GPT 기반 코딩 보조), Harvey AI (법률 특화 AI)와 같이 단순 UX 래핑이 아니라 도메인 데이터, 워크플로 통합, 전문화된 기능이 필요

- 생존이 어려울 수 있는 두 번째 AI Aggregator:여러 LLM을 하나의 인터페이스/API로 통합, 쿼리를 모델 간 라우팅, 오케스트레이션, 모니터링, 거버넌스 기능 제공 예시: Perplexity, OpenRouter

- 성장 정체, 마진 압박, 모델 제공자가 직접 엔터프라이즈 기능 확장의 위험성

- 클라우드 역사와의 유사성: Mowry는 AWS 초기 사례를 언급 AWS 인프라 리셀러 스타트업 등장, 툴링, 빌링 통합, 지원 제공 → 그러나 Amazon이 직접 엔터프라이즈 기능 강화 이후 고객이 직접 관리 역량 확보, 중간 리셀러 대부분 도태

- 생존한 기업: 보안, 마이그레이션, DevOps 컨설팅 단순 중개 모델은 장기적으로 압박받음

- Mowry가 긍정적으로 보는 영역 1: Vibe Coding & Dev Platform AI + 개발자 생산성 툴은 성장 지속 전망

- Mowry가 긍정적으로 보는 영역 2: Direct-to-Consumer AI → 강력한 AI 툴을 소비자에게 직접 제공

- Thin Layer 전략은 수명이 짧음: LLM 성능이 빠르게 개선되는 환경에서 “모델 위에 얇은 기능”은 모델 제공자가 흡수 가능 → 우리 기능이 모델 업데이트 한 번에 사라질 수 있는가?
- Aggregator의 구조적 딜레마: 중개 플랫폼의 리스크 → 공급자가 기능 확장, 고객이 직접 사용 능력 확보, 마진 축소
- 장기 생존 조건: 독점 데이터, 워크플로 락인 효과, 규제·보안·컴플라이언스 레이어
- 플랫폼 종속 리스크: 모델 기업은 API 제공자이면서 경쟁자 → 즉, 플랫폼 위에 지은 비즈니스는 항상 흡수 위험 존재
- AI 시대의 진짜 경쟁은 모델이 아니라 “지속 가능한 차별화” → "모델이 10배 좋아지면 우리는 더 강해지는가, 약해지는가?", "플랫폼이 우리를 흡수하려 하면 막을 수 있는가?"
- AI 1막은 “빠른 출시” → AI 2막은 “방어 가능한 가치”의 싸움

- https://techcrunch.com/2026/02/21/google-vp-warns-that-two-types-of-ai-startups-may-not-survive/


(4) 구글 안티그래비티, 오픈클로 사용자 대상 계정 정지 시작

- Antigravity 플랫폼에서 일부 사용자 접근 제한: 사유는 “malicious usage” (악의적 사용)

- 대상: OpenClaw를 Antigravity와 연결해 사용한 개발자, OpenClaw를 Gmail 등 Google 계정과 연결한 사용자 일부

- Google의 주장: 일부 사용자가 OpenClaw 등 서드파티를 통해 Gemini 토큰을 대량으로 우회 접근 → 이로 인해 시스템 과부하, 다른 고객 서비스 품질 저하

- 핵심 메시지: ToS 위반 → 일부는 인지하지 못했을 수 있음, 복구 경로 제공 예정, 영구적 금지는 아님

- 타이밍의 전략적 의미: 1주 전 Sam Altman이 OpenClaw 창립자 Peter Steinberger 의 OpenAI 합류 발표 → OpenClaw는 오픈소스로 유지되지만 OpenAI와 전략적 연결성 강화

- Google 입장에서는 경쟁사(OpenAI)-인접 툴이 Gemini 모델을 활용하는 통로 역할 → Google의 차단은 단순 서버 보호가 아니라 OpenAI-연계 에이전트가 Gemini를 활용하는 파이프라인 차단

- OpenClaw의 대응: Steinberger는 Google 지원 제거 발표, Antigravity와의 연결 중단 → 이는 사실상 OpenClaw ↔ Google 생태계 단절

- 산업적 맥락: Walled Garden의 귀환 및 “Bring your own agent” 시대의 종말

- Agent 전략은 이제 “플랫폼 정치” 문제: 기술 문제 이전에 "어떤 모델에 의존하는가?", "경쟁사 모델을 사용 가능한가?", "플랫폼이 언제 정책 변경하는가?" → 기술뿐 아니라 생태계 권력 구조를 분석해야 함
- 오픈소스 Agent의 딜레마: 유연성, 통합 가능성, 실험 속도 → ToS 충돌, API rate limit, 계정 차단, 지원 불확실성
- AI Agent의 미래는 단순 기술 문제가 아니라 플랫폼 주권(Platform Sovereignty)의 문제로 이동

- https://officechai.com/ai/after-anthropic-googles-antigravity-restricts-access-to-openclaw/


(5) 클로드 제공사 앤스로픽, 오픈클로를 포함한 제 3자 인공지능 하네스 사용 금지 명시

- Anthropic 가 이번 주 법적 약관/컴플라이언스 문구를 개정해, Claude 구독(Free/Pro/Max 등)을 서드파티 하네스/래퍼로 사용하는 행위를 금지한다는 정책을 “명확화”했다고 설명

- “오래된 정책을 더 분명히 보여주기 위한 문구 정리”라고 주장 → 동시에 수익 모델(구독 vs API) 방어 성격이 강함

- Claude는 모델(예: Opus 4.6) + 제품(Claude.ai, Claude Desktop, Claude Code 등)로 제공됨

- Claude Code는 대표적인 “하네스/래퍼”: 터미널과 통합, 프롬프트를 모델로 라우팅, 도구(tool) 사용 + 제어 루프(control loop)를 결합 → Anthropic은 이를 agentic coding tool로 포지셔닝

- 하네스가 필요한 이유: “모델에 프롬프트 → 결과”의 1회성 경험은 UX가 약함 → 실제 제품화에는 멀티턴 대화, 메모리, 툴 액세스, 오케스트레이션(도구 간 데이터 흐름 처리), 가드레일 등이 필요 → 이 중 일부는 모델 플랫폼에 내장되고, 일부는 하네스 툴링으로 구현됨

- Frontier 모델 업체 입장에서의 “비즈니스 문제”: 수십억 투자로 만든 모델이 중간 하네스 사업자에게 ‘UX 주도권’을 빼앗기며 디스인터미디에이션(중개자에 의해 소외) 될 위험 → 하네스가 더 좋은 UX를 제공하고 고객 관계를 가져갈 수 있음

- 구독 ‘토큰 보조금’이 만들어낸 Token Arbitrage: Anthropic은 Claude 구독을 월 정액으로 제공하면서 일정 사용 제한 내에서 API PAYG(종량제)보다 저렴하게 느껴지는 구조를 만듦 → 기사 비유: “올 유 캔 잇 뷔페(all-you-can-eat buffet)”: 평균적인 사용량 기대치로 가격 설계

- 이 구조가 토큰 차익거래(token arbitrage)를 촉발: 사용자들이 API 키로 정식 종량제 구매 대신, 구독 계정(특히 OAuth 기반)을 서드파티 하네스에 연결해 더 싸게 대량 사용 → 결과적으로 Anthropic은 구독이 ‘서드파티 하네스용 저가 토큰 공급원’처럼 쓰이는 것을 막고자 함

- “원래 금지였음” + “이번엔 더 또렷하게 못 박음”: Consumer Terms of Service는 최소 2024년 2월부터(기사 주장) 서드파티 자동화 접근을 금지해왔고, Section 3.7에 “Anthropic API Key 또는 명시적 허용이 없으면 자동화/비인간적 수단(bot/script 등)으로 접근 금지” 취지의 문구가 존재

- 그런데도 현실에서는 여러 서드파티 툴들이 Claude 구독 계정 키를 넣는 방식으로 이 규칙을 사실상 “무시/우회”할 수 있게 해왔음

- 이번 업데이트의 추가 포인트(기사에서 특히 강조): Claude Free/Pro/Max의 OAuth 토큰은 Claude Code와 Claude.ai(웹 UI) 용도에만 허용, “이 OAuth 토큰을 다른 제품/툴/서비스(Agent SDK 포함)에서 쓰는 것은 ToS 위반”이라고 명시

- 단속 강화의 이유: 텔레메트리/지원 가능성 + 트래픽 패턴 → Anthropic 엔지니어 Thariq Shihipar 의 1월 스레드 언급 "서드파티 하네스가 Claude 구독을 쓰면 비정상 트래픽 패턴이 생기고 Claude Code 하네스가 제공하는 기본 텔레메트리가 없어 rate limit, 계정 밴 같은 문제에 대해 디버깅/지원이 어렵다"

- 즉, Anthropic의 논리: “사용자에게도 문제고(지원 불가), 우리 운영에도 문제라서(관측 불가) 금지한다”

- “Bring-your-own-harness”는 구독 모델과 근본적으로 충돌: 구독은 평균 사용량 기반 가격(=부분 보조금)인데, 서드파티 하네스가 붙으면 사용량이 엔터프라이즈/자동화 급 트래픽으로 치솟기 쉬움 → 가격 설계가 무너지고(차익거래), 운영/지원이 불가능해짐
- 구독을 유지하려면: 공식 하네스만 허용하거나, 서드파티에는 API 과금 체계로 강제 전환, 혹은 구독 자체를 더 강하게 “제품 UI 사용”으로 묶어야 함
- 텔레메트리는 ‘운영’이 아니라 ‘비즈니스 방어선’이다: Anthropic이 강조한 핵심은 “비정상 트래픽 + 텔레메트리 부재” → 이건 단순 관측 문제가 아니라 지원(서포트) 비용, 정책 집행(밴/레이트리밋) 정당성, 남용 탐지, 제품 개선 루프를 좌우
- 앞으로 모델 사업자는 “고객이 어떤 UX로 모델을 쓰는지”까지 통제하려 할 가능성이 큼

- https://www.theregister.com/2026/02/20/anthropic_clarifies_ban_third_party_claude_access/

- https://www.geeky-gadgets.com/anthropic-openclaw-oauth-token-ban/


작가의 이전글26년 2월 14일 흠터레스팅 테크 뉴스