AI기업 Anthropic은 어떻게 일하는가

바이브로 돌아가는 하이브 마인드

by 김동린


'뭔가 다르다'는 감각


실리콘밸리에서 30년을 보낸 엔지니어 스티브 예거(Steve Yegge)는 구글과 아마존의 초창기를 몸으로 겪은 사람이다. 그런 그가 Anthropic 직원 40여 명을 몇 주에 걸쳐 인터뷰한 뒤 이렇게 썼다.


"Something is happening over at Anthropic. They are a spaceship that is beginning to take off." "Anthropic에서 뭔가가 일어나고 있다. 이륙하기 시작하는 우주선 같다."



흥미로운 건, 직원들도 자기 조직을 비슷하게 묘사한다는 점이다. 예거가 들은 표현은 이랬다. "a hive mind that is run entirely on vibes" — 바이브로 돌아가는 하이브 마인드. 이 말이 경영진의 브랜딩이 아니라 현장에서 자연스럽게 나온 표현이라는 게, 예거를 놀라게 한 첫 번째 지점이었다.


2021년 OpenAI에서 갈라져 나온 이 회사는, 5년 만에 AI 안전 분야의 선두 주자이자 실리콘밸리에서 가장 인재가 몰리는 조직이 되었다. 비결이 뭘까. 예거의 관찰과 여러 소스를 교차 검증하면, Anthropic의 일하는 방식에는 기존 테크 기업과 뚜렷하게 다른 몇 가지 특징이 드러난다.



하이브 마인드 — 'Yes, And'로 작동하는 집단 지성


Anthropic의 핵심 작동 원리를 한 마디로 줄이면 즉흥극의 'Yes, And' 원칙이다. 누군가 아이디어를 내면 "그건 안 돼"가 아니라 "그래, 그리고..."로 받는다.


모든 아이디어가 일단 환영받고, 검토되고, 집단의 직관으로 평가된다. 중앙 의사결정 기구가 따로 없다.


스티브 잡스나 일론 머스크 같은 '비전 독재자' 모델과는 정반대다.


제품 개발 방식도 독특하다.


Anthropic에는 캠프파이어 모델이라 부를 만한 것이 있다. 센터에 '살아 있는 프로토타입(living prototype)'이 놓이고, 팀원들이 모닥불 주위에 둘러앉듯 그 프로토타입을 함께 깎아 나간다. 워터폴도 없고 스펙 문서도 없다.


그냥 프로토타입이 진화하고, 어느 순간 "이거다" 하는 감각이 공유되면 그게 제품이 된다.


계획 주기도 짧다. 예거가 들은 바에 따르면, Anthropic은 90일 이상의 운영 계획을 세우지 않는다. 실리콘밸리에서 이 정도로 짧은 계획 주기를 가진 조직은 드물다. 가장 빠른 피드백 루프를 돌리면서, 그 안에서 즉흥처럼 움직인다. 예거는 이걸 "improv(즉흥극)"에 비유했다.


이 방식이 작동하려면 전제가 있다. 팀 전체가 같은 방향을 '느끼고' 있어야 한다. 문서나 KPI로 정렬하는 게 아니라, 바이브로 정렬한다. 소리 없이 작동하는 집단 지성. 그래서 하이브 마인드다.




에세이 리더십 — 2,000자 슬랙 메시지로 토론하는 CEO


Anthropic의 CEO 다리오 아모데이(Dario Amodei)는 일반적인 CEO와 다른 방식으로 소통한다. 회의실에서 한마디로 방향을 정하는 대신, 2,000자짜리 에세이를 슬랙에 올린다.


Anthropic 엔지니어 숄토 더글러스(Sholto Douglas)가 이 문화를 이렇게 묘사했다.


"He quite frequently puts out these very, very well-reasoned essays. And then throughout Slack, we'll have giant essay-length debates with people about Anthropic." "그는 아주 잘 추론된 에세이를 자주 올린다. 그러면 슬랙 전체에서 에세이 길이의 거대한 토론이 벌어진다."


아모데이가 전략적 갈림길에서 고민하는 과정 — 왜 이것이 긴장인지, 왜 저것이 도덕적 딜레마인지 — 이 모든 게 글로 공개된다. 직원들은 그 에세이에 또 다른 에세이로 반론을 제기하고, 아모데이가 다시 응답한다. 더글러스는 이 과정 덕분에 "회사 전체가 아모데이의 사고방식에 대한 좋은 모델을 갖게 된다"고 말했다.


이 에세이들은 단순한 소통 수단이 아니라 Anthropic 역사의 아카이브 역할도 한다. 더글러스의 표현을 빌리면, "10년 뒤 AGI의 역사를 추적할 때 가장 좋은 자료 중 하나가 될 것"이다.


물론 비판도 있다. 이 방식은 의사결정에 '지연세(latency tax)'를 부과한다. 엔지니어와 PM이 복잡한 철학적 논증을 소화한 뒤에야 코드를 짤 수 있으니, 순수 실행 속도는 느려질 수 있다. 글로 소통하는 게 편하지 않은 사람에게는 진입 장벽이 되기도 한다. 하지만 Anthropic은 이 '느림'을 의도적으로 선택한 것으로 보인다. 소통만 그런 게 아니다. 제품 출시도 마찬가지다.



안전이 곧 전략이다


Anthropic이 왜 ChatGPT보다 1년 넘게 늦게 Claude를 출시했는지를 보면, 이 조직의 우선순위가 선명해진다. 기술적으로는 비슷한 시점에 준비가 되어 있었지만, 추가적인 안전 연구와 Constitutional AI(헌법적 AI, 명시적 원칙에 따라 모델을 훈련시키는 방법론) 정비에 시간을 더 썼다.


이 철학은 Responsible Scaling Policy(RSP, 책임 있는 확장 정책)로 공식화되어 있다.


미국 정부의 생물안전등급(BSL)에서 영감을 받아,


모델의 능력이 올라갈수록 안전 장치도 비례해서 강화하는 구조다. 브레이크 성능이 엔진 성능을 따라가야 한다는 원칙이다. 대부분의 AI 기업이 이런 자체 제약을 걸지 않는 이유는 간단하다 — 속도를 잃으니까. Anthropic이 이 비용을 감수하는 건, 느림이 곧 신뢰이고 신뢰가 곧 경쟁력이라는 판단에서다.


아모데이는 TIME 인터뷰에서 Anthropic의 경쟁 철학을 이렇게 요약했다. "우리의 경쟁 우위는 연구자와 엔지니어의 창의성이지, 순수 컴퓨팅 파워가 아니다." 그가 자주 쓰는 표현이 있다. "우주선이 필요한 게 아니라 자전거만 있으면 된다(We don't invent a spaceship if all we need is a bicycle)." 가장 단순한 해결책을 먼저 찾고, 거기서부터 반복한다는 뜻이다.


법인 구조도 이 철학을 반영한다. Anthropic은 Public Benefit Corporation(공익법인)으로 설립되어 있고, Long-Term Benefit Trust(장기이익신탁) 구조를 통해 투자자가 내부 의사결정에 미치는 영향을 구조적으로 제한하고 있다.




숫자가 증명하는 것들


벤처캐피털 SignalFire의 2025년 보고서에 따르면, Anthropic의 인재 유지율은 80%다. 2년 이상 재직한 직원 기준으로, AI 업계에서 가장 높은 수치다. 비교하면 DeepMind가 78%, OpenAI가 67%다. 오퍼 수락률은 95%에 달한다.


더 눈에 띄는 건 인재 유입 방향이다. OpenAI에서 Anthropic으로 옮기는 엔지니어는 그 역방향의 8배, DeepMind에서 Anthropic으로 옮기는 비율은 11배다. 그런데 Anthropic의 연봉이 경쟁사보다 높은 것도 아니다. 아모데이는 연봉 경쟁에 참여하지 않겠다고 공개적으로 밝힌 바 있다.


"I think that what they are doing is trying to buy something that cannot be bought, and that is alignment with the mission." "그들(경쟁사)은 돈으로 살 수 없는 것을 사려 하고 있다. 그것은 미션에 대한 정렬이다."


Anthropic의 채용 과정에는 직무와 무관하게 모든 후보에게 적용되는 유니버설 컬쳐 인터뷰가 있다. 기술 역량이 아니라, 앞서 설명한 바이브 문화 — 상호 신뢰, 안전에 대한 진심, 에세이 토론에서 드러나는 지적 겸손 — 에 공명하는 사람인지를 본다. 아무리 뛰어난 인재라도 미션과 깊이 공명하지 않으면 채용하지 않는다. 에세이 리더십이 만든 투명한 사고 공유 미션 정렬 강화 높은 유지율. 이 인과 사슬이 80%라는 숫자의 비밀이다.



AI로 AI를 만든다 — 자기 실험의 기록


Anthropic에는 한 가지 흥미로운 메타적 측면이 있다. 자신들이 만든 AI로 자신들의 일하는 방식을 바꾸고, 그 과정을 연구 대상으로 삼는다는 점이다.


2025년 8월, Anthropic은 내부 엔지니어와 연구자 132명을 대상으로 설문조사를 실시하고, 53건의 심층 인터뷰를 진행했다. 여기에 더해 20만 건의 Claude Code 내부 사용 기록을 프라이버시를 보호하는 방식으로 분석했다.


결과는 이랬다. 12개월 전에는 일상 업무의 28%에 AI를 사용했는데, 조사 시점에는 59%로 늘었다. 자체 보고 기준 생산성 향상은 50%. AI 보조로 수행한 업무의 27%는 "그렇지 않았으면 아예 하지 않았을 일"이었다. 버려두었던 아이디어를 되살리거나, 내부 대시보드나 실험 파이프라인처럼 '있으면 좋지만 시간이 없어서 못 만들던' 도구를 만드는 데 AI를 썼다.


6개월 사이에 Claude Code 사용 패턴도 변했다. 태스크 복잡도는 5점 만점에 3.2에서 3.8로 올라갔고, 연속 도구 호출 수는 9.8에서 21.2로 두 배 이상 증가했으며, 인간이 개입하는 횟수는 6.2에서 4.1로 줄었다. AI에게 더 어렵고 자율적인 작업을 맡기는 방향으로 이동한 것이다.


이 변화는 앞서 설명한 캠프파이어 모델과 맞물린다. 프로토타입을 중심에 놓고 함께 깎는 방식에서, AI가 첫 번째 '조각 초안'을 만들어주는 역할을 맡게 된 것이다. 바이브로 돌아가는 하이브 마인드에 AI라는 새 구성원이 합류한 셈이다. 이 시너지가 유지되는 한, 예거가 말한 골든에이지의 연료는 계속 공급된다.


하지만 Anthropic 내부에서도 우려는 나온다.


약 50%의 직원이 동료와의 상호작용이 줄었다고 보고했다. AI가 "첫 번째 상담 창구"가 되면서, 코드 리뷰나 멘토링 같은 우연한 배움의 기회가 줄고 있다는 것이다. 한 직원은 이렇게 말했다. "출력이 쉬워지면, 실제로 뭔가를 배우기는 어려워진다." 자신들이 만든 도구가 자신들의 기술을 퇴화시킬 수 있다는 역설. Anthropic은 이 문제를 인식하고 있으며, 이것이 사내만의 문제가 아니라 곧 모든 조직이 마주할 전환이라고 판단하고 있다.



골든에이지는 계속될 수 있을까


예거는 Anthropic을 "골든에이지(Golden Age)의 한가운데, 혹은 시작점"에 있다고 진단했다. 골든에이지란 강렬한 혁신과 속도와 생산성이 폭발하는 시기를 뜻한다. 최고의 인재가 업계 전체에서 빠르게 몰려드는 시기이기도 하다.


이런 시기는 역사에서 반복되었다. 벨 연구소, 제록스 PARC, 그리고 초기 구글. 하지만 예거 자신이 가장 잘 아는 것처럼, 구글의 골든에이지는 수익 중심으로 전환하면서 끝났다. 래리 페이지가 20% 시간을 축소하고, 사람이 일보다 많아지기 시작하면서 에너지가 사라졌다.


Anthropic도 이미 500명이 넘는 조직으로 성장했다. 바이브로 돌아가는 하이브 마인드가 이 규모에서 유지될 수 있을까. 예거는 이 문화의 취약성도 언급했다.


"하이브 마인드의 작동을 방해하면, 원심분리기처럼 바깥으로 밀려난다."


바이브에 맞지 않는 사람은 조용히 주변부로 밀려나는 구조라는 뜻이다. 번아웃 리스크를 지적하는 목소리도 있다. AI의 존재론적 위험과 싸우는 미션이 주는 강도가, 지속 가능한 수준인지에 대한 우려다.


그럼에도 불구하고, 한 가지는 분명하다. 실리콘밸리의 지배적 신조였던 "Move Fast and Break Things"와 정반대의 접근법 — 에세이로 토론하고, 안전을 먼저 챙기고, 90일 이상을 내다보지 않는 '느린' 방식 — 이 AI 안전과 인재 확보라는 두 축에서 가장 강한 결과를 내고 있다는 역설이다.


이 역설이 AI 시대의 예외인지, 아니면 새로운 정답인지는 아직 아무도 모른다. 하지만 적어도, Anthropic이라는 우주선은 지금 이륙 중이다. 당신의 조직은 어떤 방식으로 날고 있는가.



참고 자료


[1] Steve Yegge, "The Anthropic Hive Mind", Medium, 2026. https://steve-yegge.medium.com/the-anthropic-hive-mind-d01f768f3d7b


[2] WebProNews, "Inside Anthropic's 'Yes, And' Culture", 2026. https://www.webpronews.com/inside-anthropics-yes-and-culture-how-a-hive-mind-mentality-is-powering-ais-most-talked-about-rocket-ship/


[3] Business Insider, "Dario Amodei leads Anthropic using 'essay-length debates' on Slack", 2025. https://www.aol.com/articles/dario-amodei-leads-anthropic-using-145729316.html


[4] WebProNews, "The 2,000-Word Pivot: Inside Anthropic's High-Stakes Gamble to Redefine Speed", 2025. https://www.webpronews.com/the-2000-word-pivot-inside-anthropics-high-stakes-gamble-to-redefine-speed/


[5] Anthropic, "Responsible Scaling Policy (version 2.2)", 2025. https://www.anthropic.com/responsible-scaling-policy


[6] Anthropic, "Company", 2026. https://www.anthropic.com/company


[7] SignalFire, "What startups can learn from Anthropic's 80% talent retention rate", 2025. https://www.signalfire.com/blog/anthropic-talent-retention


[8] Fortune, "OpenAI and DeepMind losing engineers to Anthropic in one-sided talent war", 2025. https://fortune.com/2025/06/03/openai-deepmind-anthropic-loosing-engineers-ai-talent-war/


[9] Anthropic, "How AI Is Transforming Work at Anthropic", 2025. https://www.anthropic.com/research/how-ai-is-transforming-work-at-anthropic


[10] TIME, "Anthropic CEO Dario Amodei on Being an Underdog, AI...", 2025. https://time.com/6990386/anthropic-dario-amodei-interview/


[11] WebProNews, "Anthropic's Intense Culture: Ethical AI Boom Amid Burnout Risks", 2025. https://www.webpronews.com/anthropics-intense-culture-ethical-ai-boom-amid-burnout-risks/


[12] SignalFire, "The SignalFire State of Tech Talent Report - 2025", 2025. https://www.signalfire.com/blog/signalfire-state-of-talent-report-2025


keyword
작가의 이전글MCP는 왜 Skills보다 토큰을 많이 먹을까