88%가 AI를 도입했고 5%만이 다른 배가 되었다
요즘 AI 업계에서 우리가 가장 가까이 지켜보는 두 회사가 있다. 한 곳은 우리의 벤치마크 대상이다.
팔란티어. 정부와 기업을 동시에 장악하며 엔터프라이즈 AI의 정점에 서 있는 회사다. 2025년 4분기 매출이 전년 동기 대비 70% 증가했고, 조정 영업이익률이 57%에 도달했으며, 성장률과 수익률을 합산하는 업계 지표인 Rule of 40이 127을 기록했다. SaaS 업계에서 Rule of 40이 40을 넘으면 우수 기업으로 분류되는데, 팔란티어는 그 기준의 세 배를 넘겼다. 이 회사가 발표한 2026년 가이던스는 매출 71억 9천만 달러, 전년 대비 61% 성장이다. 미국 상업 부문만 놓고 보면 전년 동기 대비 137% 성장했다. 우리처럼 엔터프라이즈 AI를 다루는 회사가 팔란티어를 지켜보지 않을 수 없는 이유다.
또 한 곳은 우리가 매일 열렬히 쓰는 공급사다. 앤트로픽. Claude 없이 우리의 하루는 돌아가지 않는다. 리서치도 Claude로 하고, 문서도 Claude로 쓰고, 에이전트의 뼈대도 Claude로 만든다. 이 회사의 ARR은 2025년 초 10억 달러에서 시작해 2026년 4월 기준 300억 달러에 도달했다. 1년 3개월 만에 30배다. 같은 매출을 만들기 위해 구글은 3만 2천 명을, 세일즈포스는 7만 9천 명을 고용해야 했는데, 앤트로픽은 5천 명으로 그 자리를 점유하고 있다. Claude Code는 출시 6개월 만에 10억 달러 ARR에 도달했고, 이는 역사상 가장 빠른 엔터프라이즈 SaaS 성장 속도에 해당한다.
둘 다 잘 나간다. 둘 다 지금 엔터프라이즈 AI의 서사를 쓰고 있다. 둘 다 우리 같은 회사가 외면할 수 없는 참조점이다. 그런데 이상한 일이 벌어진다. 가까이서 오래 지켜볼수록 이 두 회사가 같은 AI를 만들고 있지 않다는 감각이 점점 선명해진다. 매출 규모도 비슷하고 고객층도 엔터프라이즈로 겹치고, 심지어 시장의 기대치가 향하는 방향도 같은 듯 보이지만, 이들이 그리는 AI의 모양은 서로 정반대의 방향을 향하고 있다.
팔란티어의 핵심 문서 한 줄이 이 회사의 방향을 압축한다. "LLM은 도구에 직접 접근하지 못한다. LLM은 도구 사용을 요청할 수 있을 뿐이다." 이 문장은 기술적 설명이 아니라 세계관의 선언이다. 팔란티어에서 AI 에이전트가 할 수 있는 일은 제안을 생성하는 것까지고, 최종 실행은 오퍼레이터의 승인을 거친다. AI가 아무리 똑똑해도 조직의 설계도에 직접 손을 댈 수 없다. Alex Karp는 2025년 주주 서한에서 이렇게 썼다. "시장의 모든 가치는 칩과 온톨로지로 간다." 온톨로지란 조직의 데이터, 지식, 의사결정 구조를 기계가 이해할 수 있도록 정식화한 디지털 설계도다. 팔란티어가 말하는 것은 AI 자체가 아니라 AI가 움직일 구조를 누가 설계하느냐의 문제다. 그리고 그 설계는 인간이 한다. AI는 그 설계 안에서만 움직인다.
앤트로픽의 CEO 다리오 아모데이(Dario Amodei)는 정반대를 말한다. 2024년 10월에 발표한 에세이 「Machines of Loving Grace」에서 그는 AI를 "데이터 분석 방법이 아니라 실험을 설계하고 실행하는 가상의 생물학자(virtual biologist)"로 정의했다. 그리고 "데이터센터 안의 천재들의 나라(country of geniuses in a datacenter)"라는 비전을 제시했다. 그의 말을 그대로 옮기면 이렇다. "AI는 단지 질문에 수동적으로 답하지 않는다. 시간이 몇 시간, 며칠, 몇 주 걸리는 과제를 받아 자율적으로 수행한다." 이 회사가 그리는 AI는 도구가 아니라 연구자 자신이다. 실험을 설계하고, 실험을 수행하고, 결과를 해석하고, 새로운 실험을 제안한다. 2026년 1월에 발표한 후속 에세이 「The Adolescence of Technology」에서 Amodei는 더 나아갔다. "강력한 AI는 1~2년 뒤에 도달할 수 있다. 2027년쯤 '천재들의 나라'가 말 그대로 세계 어딘가에 등장한다고 상상해보라."
두 회사가 AI에게 허용하는 권한의 경계선이 극단적으로 다르다. 팔란티어는 AI의 권한을 '제안 생성'에서 멈춘다. 앤트로픽은 AI의 권한을 '설계 참여'까지 밀어붙인다. 이 차이는 마케팅 메시지의 차이가 아니다. 제품의 구조 자체에 박혀 있다. 팔란티어의 AIP에서 에이전트는 실행 권한이 없다. 실행은 사람이 한다. 앤트로픽의 Claude Code는 앤트로픽 사내에서 이미 대부분의 코드를 스스로 쓴다. 엔지니어는 아키텍처와 제품 판단, 여러 에이전트를 병렬로 오케스트레이션하는 일에 집중한다. 이것이 공식 제품 페이지의 서술이다. 이 차이를 가장 극명하게 보여주는 수치가 앤트로픽이 2025년 6월에 발표한 Multi-Agent Research System의 벤치마크다. Claude Opus 4를 리드 에이전트로 두고 Claude Sonnet 4를 서브 에이전트로 병렬 운영하는 구조가 단일 Opus 4 대비 내부 리서치 평가에서 90.2% 성능 향상을 기록했다. 사람이 오케스트레이터 자리를 지키는 것이 아니라 AI가 AI를 조율하는 구조다. 팔란티어가 불가침으로 남겨둔 자리를 앤트로픽은 AI에게 넘기고 있다.
시장은 두 접근법 모두에 같은 정도로 지갑을 연다. 팔란티어의 주가는 2025년 한 해 동안 네 배 이상 올랐고, 시가총액 2천억 달러를 돌파했다. 앤트로픽의 최근 라운드 평가액은 2천억 달러를 넘어섰다. 고객 리스트도 닮아 있다. 팔란티어는 BP, Airbus, Lockheed Martin, Cleveland Clinic, HCA Healthcare, PwC를 고객으로 두고 있다. 앤트로픽은 Notion, Canva, Zoom, Perplexity, GitLab, Cursor의 뼈대에 들어가 있다. 두 회사는 다른 시장을 공략하는 것이 아니라 같은 엔터프라이즈 고객의 예산을 두고 서로 다른 철학으로 경쟁하고 있다.
이 감각이 우리를 멈추게 한다. 같은 업계라고 묶이는 두 회사가 안으로 들어가 보면 완전히 다른 것을 만들고 있다. 한 쪽은 인간이 설계도를 쥐고 AI를 도구로 쓰는 세계를 그리고 있고, 한 쪽은 AI가 설계도에 손을 대기 시작하는 세계를 그리고 있다. 이것은 제품 전략의 차이가 아니다. AI라는 것의 본질을 무엇으로 볼 것인가에 대한 답이 갈린 것이다. 누군가에게 AI는 인간의 의사결정을 강화하는 도구이고, 누군가에게 AI는 스스로 실험을 설계하는 또 하나의 주체다. 한 쪽은 AI의 권한을 조직의 설계도 아래로 제한하는 것이 안전과 가치 창출의 조건이라고 믿고, 한 쪽은 AI의 권한을 설계 영역까지 개방하는 것이 인간 한계를 넘어서는 돌파의 조건이라고 믿는다. 이 믿음의 차이가 엔터프라이즈 시장에서 실제로 다른 제품, 다른 고객 가치, 다른 조직 모델을 만들어내고 있다.
표면만 보면 둘 다 'AI 회사'다. 똑같은 업계 컨퍼런스에 참여하고, 똑같은 벤치마크로 비교되고, 똑같은 엔터프라이즈 세일즈 사이클을 돌린다. 그러나 안에서 설계되고 있는 배의 모양은 서로 반대다. 하나는 절대로 침몰하지 않는 배를 짓고 있다. 아무리 AI가 발전해도 선장이 항상 키를 쥐고 있는 구조 위에서만 움직이기 때문이다. 다른 하나는 어쩌면 하늘을 날지도 모르는 배를 짓고 있다. 직원이 점점 설계도에 관여하며 선장조차 예상하지 못한 형태로 진화할 가능성에 배팅하고 있기 때문이다. 그 대신 이 배는 침몰할 수도 있다.
이 분기는 우리만의 감상이 아니다. 엔터프라이즈 AI 시장 전체가 조용히 둘 중 어느 쪽을 선택하는 중이다. 그리고 이 선택은 AI를 도입하느냐 마느냐의 문제가 아니라 AI에게 조직의 어느 지점까지 권한을 허용하느냐의 문제다. 팔란티어가 2026년 가이던스에서 61% 성장을 약속할 수 있는 이유, 앤트로픽이 1년 3개월 만에 ARR을 30배 키운 이유는 모두 각자가 서로 다른 방향의 신념을 고객에게 납득시켰기 때문이다. 한쪽은 통제 가능한 AI의 가치를, 한쪽은 자율적 AI의 가치를 팔고 있다. 그리고 두 시장이 모두 성장하고 있다.
그렇다면 우리는 어느 쪽에 서야 하는가. 이 질문에 답하려면 두 회사를 더 깊이 들여다보기 전에, 먼저 이 분기의 근원에 있는 더 오래된 질문 하나를 꺼내야 한다. 2천년 전부터 철학자들이 물어온 질문이다. 같은 배에서 부품을 계속 교체하다 원래 부품이 하나도 남지 않게 되었다면, 이 배는 여전히 같은 배인가. 이 질문이 왜 지금 우리의 AI 선택과 직접 연결되는지, 그리고 이 질문의 진짜 무게중심이 어디에 있는지를 다음 장에서 먼저 정리해야 한다. 두 척의 배가 어디서 갈라졌는지는 그 다음에야 제대로 보인다.
두 회사의 분기를 제대로 이해하려면 잠시 2천년 전으로 거슬러 올라가야 한다. 고대 아테네의 영웅 테세우스가 크레타의 미노타우로스를 물리치고 청년들을 이끌고 무사히 귀환했을 때, 아테네인들은 그가 타고 온 배를 영웅의 기념물로 보존하기로 결정했다. 시간이 흐르며 배의 낡은 목재는 하나씩 교체되었고, 부패한 판자는 새 판자로 대체되었다. 세월이 지나 어느 순간, 원래 테세우스가 타고 온 배의 부품은 단 하나도 남지 않게 되었다. 이 배는 여전히 테세우스의 배인가, 아니면 완전히 다른 새로운 배인가. 플루타르코스가 『영웅전』 23장에 기록한 이 장면은 "성장(변화)의 문제에 관한 철학자들의 대표적 예시"가 되었다고 그는 적었다. 어떤 이들은 같은 배로 남아 있다고 주장했고, 다른 이들은 같은 배가 아니라고 반박했다.
이 질문이 2천년을 살아남은 이유는 그것이 단지 배의 문제가 아니기 때문이다. 우리는 모두 테세우스의 배다. 7년이면 인간 몸의 거의 모든 세포가 교체된다. 10년 전의 나와 지금의 나는 물질적으로 거의 겹치지 않는다. 그렇다면 나는 같은 사람인가. 기업은 더 극적이다. 10년 사이에 구성원의 대부분이 바뀌고, 제품도 바뀌고, 전략도 바뀐다. 그 회사는 같은 회사인가. 국가, 언어, 문화 — 이 모든 것이 테세우스의 배다. 부품이 계속 교체되는데도 우리는 무엇을 근거로 '같다'고 부르는가.
철학은 이 질문에 2천년 동안 네 가지 다른 방식으로 답해 왔다. 첫 번째는 물질적 연속성이다. 같은 원자, 같은 세포, 같은 목재가 유지되어야 같은 대상이라는 입장이다. 이 기준에서 테세우스의 배는 부품이 하나라도 교체되는 순간 엄밀히 말하면 다른 배가 된다. 두 번째는 형식적 연속성이다. 17세기 영국 철학자 토머스 홉스가 『De Corpore』에서 정식화한 입장으로, 중요한 것은 구성 부품이 아니라 그 구조와 형식이다. 배의 설계가 같다면, 부품이 모두 바뀌어도 같은 배다. 세 번째는 기능적·심리적 연속성이다. 존 로크가 1694년 『인간 지성론』 2권 27장에서 제시한 입장으로, 정체성을 만드는 것은 물질도 형식도 아니라 의식의 연속이다. 기억이 이어지고 자기 인식이 연속된다면, 물질이 바뀌어도 같은 존재다. 네 번째는 서사적 연속성이다. 대상의 이야기가 끊어지지 않고 계속 이어진다면 — 마을 사람들이 "이 배가 테세우스의 배"라고 계속 부른다면 — 그 서사가 정체성을 구성한다는 입장이다.
20세기에 들어와 이 논의에 결정적인 균열을 낸 사람이 있다. 옥스퍼드의 철학자 데릭 파핏이다. 1984년 출간된 『이유와 인격(Reasons and Persons)』에서 파핏은 테세우스의 배와 연결된 인격 동일성 문제를 극단까지 밀어붙였다. 그의 유명한 순간이동 사고실험에서, 화성의 어떤 기계가 당신의 몸을 정확히 복제한다. 지구의 원본은 파괴된다. 화성의 복제본은 당신과 동일한 기억, 동일한 성격, 동일한 신체를 가지고 있다. 그 복제본은 당신인가. 파핏은 이 질문에 충격적인 답을 내놓았다. "정체성은 중요한 것이 아니다(identity is not what matters)." 그가 제시한 것은 '관계 R'이라는 새로운 개념이다. 중요한 것은 같은 사람인지 아닌지가 아니라 심리적 연결과 연속성이 있는지 없는지다. 같은 배인가 아닌가를 묻는 순간 우리는 이미 잘못된 질문을 하고 있다는 것이다.
그러나 이 모든 전통적 논의는 여전히 하나의 가정을 공유한다. 배의 변화가 관찰자들에게 투명하게 보인다는 가정이다. 마을 사람들은 부품이 교체되는 과정을 목격하고, 선장과 똑같은 정보를 공유한다. 이 상황에서 "같은 배인가 다른 배인가"라는 질문은 관점의 차이로 귀결된다. 물질을 본질로 보느냐, 형식을 본질로 보느냐, 기능을 본질로 보느냐에 따라 답이 달라진다. 각자의 본질관이 다를 뿐, 누구도 특별히 더 많이 알고 있는 것이 아니다.
그런데 이 가정을 흔들어보면 어떻게 될까. 토머스 홉스는 2천년 된 이 사고실험에 균열을 내는 두 번째 배를 도입했다. 누군가 썩어서 교체된 원래 부품들을 하나도 버리지 않고 모아두었다가, 시간이 지나 그것들을 원래 순서대로 다시 조립해 또 하나의 배를 만들었다면 어떻게 되는가. 이제 우리 앞에는 두 척의 배가 있다. 하나는 아테네에 보존된, 모든 부품이 새것으로 교체된 '공식적인 테세우스의 배'다. 다른 하나는 원래 목재를 모아 재조립한 '물질적 원본'이다. 둘 중 어느 쪽이 진짜 테세우스의 배인가. 홉스는 이 역설을 통해 한 가지 충격적인 결론을 내린다. 어느 답을 선택하든 우리는 모순에 빠진다. 형식을 본질로 보면 첫 번째 배가 진짜이지만, 물질을 본질로 보면 두 번째 배가 진짜다. 그리고 만약 둘 다 테세우스의 배라고 인정하면, 동일한 배가 동시에 두 개 존재하는 논리적 불합리에 빠진다. 홉스의 변형은 본질이 무엇이냐는 질문 자체를 해체해버린다.
그러나 홉스보다 더 근본적인 변형이 있다. 만약 이 배의 선장이 부품 교체를 밤중에만 진행해서 마을 사람들이 부품이 교체된 사실을 전혀 몰랐다면 어떨까. 심지어 내부 구조까지 완전히 바꿔버렸는데 겉으로는 전혀 티가 나지 않는다면 어떨까. 이 상황에서 마을 사람들은 이 배가 여전히 같은 배라고 말할 것이다. 겉모습이 완전히 동일하기 때문이다. 그러나 모든 변화를 알고 있는 선장은 이 배가 이전과는 전혀 다른 배라고 말할 것이다. 이제 질문은 근본적으로 달라진다. "본질을 무엇으로 보느냐에 따라 답이 달라진다"는 전통적 프레임은 여기서 무너진다. 왜냐하면 선장과 마을 사람들은 같은 본질관을 가질 수도 있지만, 단지 정보의 양이 다르기 때문이다. 선장이 마을 사람들보다 이 배의 본질을 더 제대로 파악하고 있다. 이 경우 진짜 중요한 질문은 "무엇을 본질로 보느냐"가 아니라 "누가 본질을 제대로 보고 있느냐"가 된다.
이 전환은 단순한 사고실험의 트릭이 아니다. 그것은 20세기 후반의 철학이 '외양과 실재의 괴리'를 다루는 방식과 정확히 겹친다. 프랑스 철학자 장 보드리야르가 1981년 『시뮬라크르와 시뮬라시옹』에서 제시한 시뮬라크르의 4단계가 대표적이다. 첫 번째 단계에서 이미지는 심오한 실재를 반영한다. 두 번째 단계에서 이미지는 실재를 왜곡하고 은폐한다. 세 번째 단계에서 이미지는 실재의 부재 자체를 은폐한다. 네 번째 단계에서 이미지는 어떤 실재와도 무관한 순수한 시뮬라크르가 된다. 보드리야르는 여기서 한 단계 더 나아갔다. "이제 영토가 지도에 선행하지 않는다. 지도가 영토에 선행한다." 모델이 실재를 낳는 시대가 왔다는 것이다. 겉으로 보이는 것이 안에서 벌어지는 것과 완전히 분리된 세계, 표면과 실체가 서로를 참조하지 않는 세계에서 정체성 문제는 관점의 다양성으로 해소되지 않는다. 그것은 정보의 권위 문제, 즉 누가 실재에 대한 더 깊은 접근권을 가졌느냐의 문제가 된다.
플라톤이 『국가』 7권의 동굴의 비유에서 이미 이 구도를 제시했다. 동굴 속 수인들은 벽에 비치는 그림자를 실재라고 믿는다. 그들에게 그림자는 완벽하게 일관되고 의심할 이유가 없는 세계다. 그러나 동굴 바깥을 본 철학자는 그림자가 단지 실재의 반영일 뿐이며, 진짜 실재는 동굴 밖의 태양 아래 있다는 사실을 안다. 수인들과 철학자가 "무엇이 실재인가"를 두고 벌이는 논쟁은 관점의 차이가 아니다. 그것은 정보 비대칭의 문제다. 그리고 이 비대칭에서 철학자가 수인들에게 그림자의 정체를 설명해도 수인들은 받아들이지 않는다. 그들이 보는 것이 너무 일관되고 완전하기 때문이다. 이것이 시선의 비대칭이 만드는 존재론적 균열의 원형이다.
이 구도를 지금 우리의 AI 시대에 겹쳐 놓으면 무언가 선명해진다. 외부에서 보는 기업과 내부에서 일하는 리더가 보는 기업은 같은 기업이 아니다. 외부에서 보는 팔란티어와 내부에서 설계하는 팔란티어는 다르다. 외부에서 보는 앤트로픽과 내부에서 모델을 훈련시키는 앤트로픽은 다르다. 그리고 더 중요한 것은, 외부에서 보는 '우리 회사'와 내부에서 실제로 벌어지는 일 사이의 격차가 AI 이전 시대에는 서서히 벌어지는 차이였다면, AI 이후 시대에는 어떤 구조적 단절로 바뀔 수 있다는 점이다. 부품이 교체되는 속도가 관찰자의 인지 속도를 추월하는 순간, 마을 사람들이 감지하지 못하는 사이에 배의 내부는 완전히 다른 것으로 바뀔 수 있다.
이 질문이 왜 지금 중요한가. 왜냐하면 지금 벌어지고 있는 AI 전환은 대부분의 경우 밤중에 진행되고 있기 때문이다. 어떤 기업은 AI를 도입했다고 발표하지만 실제로는 기존 워크플로의 일부에 챗봇을 붙인 수준에 머물러 있다. 다른 기업은 똑같이 "AI를 도입했다"고 발표하지만 실제로는 조직의 의사결정 구조, 업무 재설계, 지식 관리 방식, 인력 구조 전체를 근본적으로 다시 짜고 있다. 두 기업은 외부에서 보면 같은 'AI 도입 기업'으로 분류된다. 발표 자료도 비슷하고, 언급하는 도구도 비슷하다. 그러나 안에서 벌어지는 변화의 깊이와 속도가 완전히 다르다. 마을 사람들은 이 두 배의 차이를 구분할 수 없다. 오직 각 배의 선장들만이, 그리고 아주 가까이서 그 배를 들여다보는 사람들만이 그 차이를 안다.
앞으로 우리는 팔란티어와 앤트로픽을 포함한 여러 배들을 들여다볼 텐데, 그때마다 두 겹의 시선을 유지할 것이다. 한 겹은 외부에서 보이는 표면이다. 또 한 겹은 내부에서 벌어지는 구조적 실체다. 이 두 겹 사이의 간극이 클수록, 그리고 그 간극을 누가 얼마나 정확히 파악하느냐에 따라, 그 배의 미래 궤적은 완전히 달라진다. 팔란티어의 선장 알렉스 카프와 앤트로픽의 선장 다리오 아모데이가 각자의 배에 대해 마을 사람들보다 훨씬 더 많은 것을 알고 있는 이유, 그리고 그들이 서로 다른 방향으로 배를 이끌고 있는 이유는 단지 전략 선택의 차이가 아니다. 그것은 AI라는 배의 본질을 무엇으로 보느냐에 대한, 그리고 그 본질을 누가 제대로 볼 수 있느냐에 대한, 서로 다른 답이다.
다음 장부터는 그 두 배를 각각 해부한다. 먼저 팔란티어의 배다. 선장이 설계도를 절대 놓지 않는 배, 아무리 유능한 직원이라도 도면 안에서만 움직이게 만드는 배, 그리고 그 철학이 엔터프라이즈 시장에서 어떻게 구체적 수치로 증명되고 있는지를 본다.
팔란티어라는 배를 이해하기 위해 먼저 알아야 할 것은 이 회사의 핵심 제품이 AI가 아니라는 사실이다. 팔란티어가 팔고 있는 것은 '온톨로지(Ontology)'다. 조직의 데이터, 프로세스, 의사결정 구조를 기계가 이해할 수 있는 형태로 정식화한 디지털 설계도다. 팔란티어 공식 문서는 이것을 이렇게 정의한다. "팔란티어 온톨로지는 조직을 위한 운영 레이어다. 많은 경우 온톨로지는 조직의 디지털 트윈 역할을 하며, 의미론적 요소(객체, 속성, 링크)뿐 아니라 운동학적 요소(액션, 함수, 동적 보안)까지 포함해 모든 종류의 유스케이스를 가능하게 한다." 공식 블로그는 더 간결하게 말한다. "온톨로지는 데이터와 의미를 연결하는 지도를 제공한다. 조직의 명사, 동사, 형용사를 정의한다." 조직에 명사와 동사와 형용사가 있다. 그 품사 체계를 기계가 해석할 수 있게 만들어놓는 것이 팔란티어가 하는 일이다.
알렉스 카프는 2025년 2분기 주주 서한에서 이 구도를 한 문장으로 압축했다. "시장의 모든 가치는 칩과 온톨로지로 간다." 이 문장은 AI 산업 전체를 관통하는 가치 분배의 지도를 그리고 있다. 칩은 엔비디아가 가져가고, 온톨로지는 팔란티어가 가져간다. 그렇다면 모델은 누구의 몫인가. 카프의 답은 명확하다. 모델은 대체 가능해진다. 이번 달의 GPT가 다음 달의 Claude로 교체되어도, 그 다음 달의 Gemini로 교체되어도, 온톨로지만 건재하다면 조직은 같은 조직으로 작동한다. 모델은 플러그인이고, 온톨로지는 본체다. 이 관점이 왜 중요한가. 이것이 팔란티어가 AI에게 허용하는 권한의 경계선을 결정하는 철학적 전제이기 때문이다.
팔란티어 공식 기술 문서의 한 문장에 이 철학이 가장 선명하게 박혀 있다. "LLM은 도구에 직접 접근하지 못한다. LLM은 도구 사용을 요청할 수 있을 뿐이며, 그 도구 호출은 AIP Logic이 호출한 사용자의 권한 하에 실행한다." 이 문장은 기술적 제약이 아니라 세계관의 선언이다. 이 구조에서 AI 에이전트는 어떤 실행 권한도 갖지 못한다. 에이전트가 할 수 있는 일은 제안을 생성하는 것까지다. 실제 시스템을 변경하는 실행은 반드시 인간 오퍼레이터의 승인을 거친다. 팔란티어의 플랫폼 개요 문서는 이 설계 원리를 이렇게 서술한다. "AI 에이전트는 직접 변경을 만드는 대신 제안을 생성한다. 그 결과물은 오퍼레이터에게 전달되어 정제, 피드백, 결정으로 이어진다. 이 제안 기반 패턴은 'human in the loop' 패러다임을 강화할 뿐 아니라, 에이전트가 지속적 피드백을 통해 학습하고 진화할 수 있는 긍정적 사이클을 만드는 귀중한 메타데이터를 생성한다."
팔란티어의 AI 윤리·거버넌스 문서는 이 원칙을 더 단호하게 명문화한다. "인간의 의사결정을 대체하는 것이 아니라 향상시키는 AI 시스템을 설계하라. 필수적인 인간 감독 메커니즘은 중요한 결정이 인간의 통제 아래 남도록 보장한다." 이 문장은 마케팅 카피가 아니다. 제품의 아키텍처 자체에 강제되는 구조적 제약이다. 팔란티어의 배에서 AI라는 직원은 아주 유능할 수 있다. 그러나 이 직원에게는 설계도를 수정할 권한이 주어지지 않는다. 설계도를 건드리는 순간, 배가 선장이 예상하지 못한 모양으로 바뀔 수 있기 때문이다. 팔란티어는 그 가능성 자체를 차단한다.
이 철학의 원천은 설립자들의 세계관에 있다. 카프는 2025년 2월 출간된 책 『The Technological Republic: Hard Power, Soft Belief, and the Future of the West』에서 실리콘밸리를 정면으로 비판했다. "실리콘밸리는 길을 잃었다. 한 세대의 창업자들은 엄청난 자본을 모으고 재능 있는 엔지니어 군단을 고용해 단지 사진 공유 앱과 채팅 인터페이스를 만드는 데 썼다. 소셜 미디어 플랫폼과 음식 배달 앱의 시대가 도래했다. 의료 혁신, 교육 개혁, 군사적 진보는 기다려야 했다." 이 책은 뉴욕타임스 베스트셀러 1위에 올랐다. 카프가 주장하는 것은 기술이 '하드 파워(hard power)' — 즉 국가 안보, 제조업, 에너지, 의료 같은 실물 영역 — 에 복무해야 한다는 것이다. 이 영역에서는 AI가 실수하면 사람이 죽고 공장이 멈추고 국가가 흔들린다. 따라서 AI는 반드시 인간의 통제 아래 있어야 한다. 유토피아적 비전이나 실존적 공포는 모두 이 실용적 요구 앞에서 사치스러운 논쟁일 뿐이다.
팔란티어 CTO 샤얌 산카르는 2026년 2월 폭스뉴스 오피니언에 기고한 글에서 이 입장을 더 밀어붙였다. "유토피아주의자와 파멸론자는 같은 오류를 범한다. 그들은 인간의 주체성을 간과한다. AI는 신이 아니다. AI는 손가락을 튕겨 일자리를 없애거나 만들어낼 수 없다. 사람들이 AI를 이용해 일자리를 줄이거나 만들어낸다." 이 문장은 팔란티어의 철학을 가장 명료하게 요약한다. AI는 행위자가 아니다. 인간이 행위자다. AI는 인간이 휘두르는 도구이고, 그 도구를 어떻게 휘두를지를 결정하는 것은 인간의 판단이다. 이 입장에서 AI 에이전트가 "스스로 설계도를 수정한다"는 발상은 범주 오류에 해당한다. 도구가 자기를 휘두르는 주인의 방향을 바꾼다는 말이기 때문이다.
알렉스 카프는 2025년 9월 포춘 인터뷰에서 이 관점을 노동 문제에 적용했다. AI가 미국 노동자의 일자리를 빼앗을 것이라는 우려에 대해 그는 이렇게 답했다. "사실이 아니다. AI는 당신의 일을 더 가치있게 만들 것이다." 이 문장에서 중요한 것은 주어가 누구냐다. AI가 노동을 대체하는 것이 아니라, 노동자가 AI를 이용해 자기 노동의 가치를 높인다. 행위의 주체는 AI가 아니라 인간이다.
그런데 이 철학이 단순히 레토릭이 아니라는 것을 증명하는 것은 2025년의 재무 실적이다. 팔란티어는 2025년 4분기에 매출 14억 700만 달러를 기록했다. 전년 동기 대비 70% 성장이다. SEC에 제출된 공식 자료에서 CFO 데이브 글레이저는 이렇게 말했다. "우리는 보고된 역대 최고 수준인 전년 동기 대비 70% 매출 성장률을 기록했다." 미국 상업 부문만 떼어놓고 보면 5억 700만 달러로 전년 동기 대비 137% 성장했다. 연간 전체로는 44억 7500만 달러, 56% 성장이다. 조정 영업이익률은 57%, Rule of 40 지표는 127에 도달했다. SaaS 업계에서 매출 성장률과 영업이익률의 합계를 나타내는 Rule of 40은 40을 넘으면 우수, 50을 넘으면 탁월로 평가받는데, 127은 이 기준을 세 배 이상 초과한 수치다. 2026년 가이던스 중간값은 71억 9천만 달러, 전년 대비 61% 성장이다.
이 숫자들의 의미를 곱씹어야 한다. AI에게 실행 권한을 주지 않는다는 보수적 설계 철학이 가장 빠르게 성장하는 엔터프라이즈 소프트웨어 회사를 만들어내고 있다는 사실이다. 투자자들은 이 구조에 돈을 베팅하고 있다. 팔란티어의 주가는 2025년 한 해 동안 네 배 이상 올랐고 시가총액은 2천억 달러를 돌파했다. 이것은 단지 모멘텀 투자의 결과가 아니다. 고객이 팔란티어에 돈을 쓰고 있기 때문에 나오는 성장이다. 그리고 그 고객들은 왜 팔란티어를 선택하는가. 몇 가지 구체적 사례가 이를 보여준다.
AIG는 언더라이팅 프로세스를 팔란티어 AIP 위에서 재설계했다. 기존에 2주가 걸리던 특수 보험 언더라이팅 작업이 3시간으로 줄었다. 2025년 12월에 발표된 추가 확장 파트너십에서 AIG는 팔란티어, Amwins, 블랙스톤과 함께 Lloyd's Syndicate 2479를 출범시켰고, 3억 달러 규모의 프리미엄을 여기에 배정했다. 2026년 맥길 파트너십에서는 최대 16억 달러 규모의 특수 보험 인수 포트폴리오 전체에 에이전틱 AI를 적용하기로 했다. 주목할 점은 이 모든 작업에서 최종 언더라이팅 결정은 여전히 인간 언더라이터가 내린다는 것이다. AI는 리스크 평가 자료를 준비하고, 과거 유사 건을 조회하고, 가격 제안을 생성한다. 그러나 실제로 계약에 사인하는 것은 사람이다. 이것이 팔란티어식 구조다. AI는 전문가의 일을 빠르게 만들지만 전문가를 대체하지 않는다.
하이네켄은 공급망 변환 프로젝트를 팔란티어 위에서 진행하며 "3년 걸리는 변환을 3개월에 완료했다"고 발표했다. 탬파 종합병원은 7년간 5천만 달러 규모의 팔란티어 딜에 서명했다. 클리블랜드 클리닉, HCA 헬스케어, BP, 에어버스, 록히드 마틴, PwC가 팔란티어 AIPCon 2025에 공개된 주요 고객 사례다. 국방 쪽에서는 더 극단적이다. 2026년 3월 미 국방부는 팔란티어의 Maven AI 시스템을 '핵심 군사 시스템'으로 공식 채택했다. 테크놀로지 오알지는 이렇게 보도했다. "팔란티어는 자사 소프트웨어가 결코 살상 결정을 내리지 않는다고 주장한다. 인간이 모든 타겟의 선정과 승인에 루프 안에 남아 있다." 전장에서도 팔란티어의 원칙은 유지된다. AI는 정보를 통합하고 타겟 후보를 제시한다. 그러나 방아쇠를 당기는 결정은 사람이 한다.
이 모든 사례를 관통하는 패턴이 있다. 팔란티어의 고객들은 AI에 실행 권한을 넘기지 않는 조건으로 팔란티어를 선택한다. 이들은 보험 언더라이터, 공급망 관리자, 의사, 군 지휘관이다. 이들의 공통점은 의사결정의 결과에 직접적인 법적·재무적·인도적 책임을 진다는 것이다. 언더라이터는 자신이 사인한 계약에 책임을 진다. 의사는 자신이 내린 진단에 책임을 진다. 지휘관은 자신이 명령한 작전에 책임을 진다. 이들에게 AI는 판단을 빠르게 만들어주는 도구여야 하지, 판단 자체를 대리하는 주체여서는 안 된다. 팔란티어는 이 책임 구조를 건드리지 않는 방식으로 AI를 조직에 삽입한다. 그래서 이 고객들은 AI가 실수했을 때 "AI 탓"이 아니라 여전히 "인간 전문가 탓"이 되는 구조에서 일할 수 있다. 이것이 팔란티어가 파는 진짜 상품이다. 안전하게 AI를 쓸 수 있는 구조.
그렇다면 이 배의 모양은 어떤가. 팔란티어의 배에서 선장은 알렉스 카프와 CTO 샤얌 산카르만이 아니다. 각 고객사의 CEO, 각 언더라이터, 각 의사, 각 지휘관이 자기 영역의 선장이다. 그들은 자기 배의 설계도를 쥐고 있고, 그 설계도를 바꿀 권한을 AI에게 넘기지 않는다. 팔란티어는 그 선장들이 더 빠르게 항해할 수 있도록 엔진을 업그레이드하고 돛을 교체해준다. 그러나 배의 방향을 결정하는 키는 절대 AI에게 넘어가지 않는다. 부품은 계속 교체된다. AIP가 GPT에서 Claude로 바뀔 수도 있고, Claude에서 다음 세대 모델로 바뀔 수도 있다. 그러나 테세우스의 배가 테세우스의 배인 이유 — 그 배의 설계, 그 배가 향하는 방향, 그 배의 의사결정 구조 — 는 선장의 손에 남아 있다.
이것이 팔란티어의 철학적 승부처다. 카프는 "절대 침몰하지 않는 배"에 배팅했다. 왜 침몰하지 않는가. 아무리 AI가 폭주해도, 아무리 모델이 오작동해도, 최종 실행 버튼은 사람이 누르기 때문이다. AI의 능력이 어디까지 진화하든 간에 배의 방향은 인간이 결정한다. 이 구조는 AI의 상한선이 곧 이 배의 상한선이 되지 않는다는 장점을 가진다. 반대로 이 구조는 AI가 스스로 해낼 수 있는 돌파 — 인간이 미처 상상하지 못한 설계 개선, 조직 자체의 재발명 — 를 구조적으로 차단한다는 한계도 가진다. 카프는 그 한계를 알고 있다. 그리고 그 한계를 선택했다. 침몰하지 않는 배가 하늘을 나는 가능성보다 더 중요하다는 판단이다.
2026년 4월 현재 시장은 이 판단에 지갑을 열고 있다. 팔란티어는 엔터프라이즈 AI 인프라의 실질적 표준으로 자리 잡아가고 있다. 그러나 바로 이 시점에, 정반대 방향으로 배를 설계하고 있는 또 하나의 회사가 팔란티어에 필적하는 시장 가치와 매출 성장을 만들어내고 있다. 앤트로픽이다. 그들은 AI라는 직원에게 설계도 자체를 수정할 권한을 점점 더 많이 넘기고 있다. 그들이 그리는 배의 모양, 그리고 그 배가 어떻게 팔란티어의 배와 정반대 방향으로 향하고 있는지를 다음 장에서 해부한다.
앤트로픽이라는 배를 이해하는 가장 빠른 길은 창업자 다리오 아모데이의 두 에세이를 읽는 것이다. 첫 번째는 2024년 10월에 발표한 「Machines of Loving Grace」다. 이 에세이에서 아모데이는 'Powerful AI'라는 자신만의 용어를 정의한다. "순수한 지능 면에서 대부분의 관련 분야에서 노벨상 수상자보다 똑똑한 AI. AI는 단지 질문에 수동적으로 답하지 않는다. 시간이 몇 시간, 며칠, 몇 주 걸리는 과제를 받아 자율적으로 수행한다. 이것을 우리는 '데이터센터 안의 천재들의 나라(country of geniuses in a datacenter)'라고 요약할 수 있다."
이 정의에서 결정적인 것은 'autonomously'라는 단어다. 자율적으로. 아모데이는 AI를 "데이터 분석 방법이 아니라 실험을 설계하고 실행하는 가상의 생물학자(virtual biologist)"로 규정한다. 그의 말 그대로다. "AI를 생각하는 올바른 방법은 데이터 분석 방법이 아니라 생물학자들이 하는 모든 일을 수행하는 가상의 생물학자다. 이것은 실제 세계에서 실험을 설계하고 실행하는 일까지 포함한다. 나는 AI를 단지 데이터 분석 도구로 말하는 것이 아니다." 이 문장은 팔란티어의 "LLM은 도구 사용을 요청할 수 있을 뿐이다"와 정반대 지점에 서 있다. 팔란티어는 AI의 권한을 제안 생성까지로 한정한다. 앤트로픽은 AI의 권한을 실험 설계와 실행까지 확장한다.
아모데이가 그리는 미래의 시간표는 더 충격적이다. 그는 「Machines of Loving Grace」에서 "압축된 21세기"라는 개념을 제시했다. "AI가 가능하게 한 생물학과 의학은 인간 생물학자들이 다음 50~100년에 걸쳐 달성했을 진보를 5~10년에 압축할 수 있게 할 것이다. 이것을 나는 '압축된 21세기'라고 부른다." 50년에서 100년의 과학적 진보를 5년에서 10년에 압축한다. 이 주장은 AI가 인간의 보조가 아니라 인간을 대체해 과학 자체를 수행하는 주체라는 전제 위에 서 있다. 2026년 1월에 발표한 후속 에세이 「The Adolescence of Technology」에서 아모데이는 타임라인을 더 당겼다. "Powerful AI는 1~2년 뒤에 도달할 수 있다. 2027년쯤 문자 그대로 '천재들의 나라'가 세계 어딘가에 등장한다고 상상해보라."
이 비전이 단지 에세이의 수사가 아니라는 증거는 앤트로픽이 실제로 만든 제품과 내부 운영 방식에 있다. 2025년 2월에 공식 출시된 Claude Code는 앤트로픽의 철학을 가장 명확하게 구체화한 제품이다. 공식 제품 페이지의 설명은 이렇게 시작한다. "Claude Code는 에이전틱 코딩 시스템이다. 코드베이스를 읽고, 여러 파일에 걸쳐 변경을 만들고, 테스트를 실행하고, 커밋된 코드를 전달한다." 그리고 바로 다음에 오는 문장이 결정적이다. "앤트로픽 사내에서, 이제 대부분의 코드는 Claude Code가 작성한다. 엔지니어는 아키텍처, 제품적 사고, 지속적 오케스트레이션에 집중한다. 여러 에이전트를 병렬로 관리하는 것이다."
이 문장을 천천히 읽어야 한다. 세계에서 가장 기술적으로 앞선 AI 기업의 사내에서, 대부분의 코드를 AI가 쓴다. 인간 엔지니어는 여러 AI 에이전트를 병렬로 오케스트레이션하는 관리자 역할로 이동했다. 이것은 팔란티어의 "제안 생성까지만"과 비교하면 완전히 다른 층위의 권한 이양이다. 앤트로픽에서 AI는 코드를 제안하는 것이 아니라 코드를 쓴다. 커밋한다. 배포한다. 그리고 이것이 실험적 데모가 아니라 앤트로픽의 실제 엔지니어링 워크플로다. Claude Code의 상업적 성공은 이 철학에 돈이 따라붙고 있다는 증거다. 2025년 5월 출시된 뒤 6개월 만에 10억 달러 ARR을 달성했고, 2026년 2월 기준 25억 달러 ARR로 추정된다. 역사상 가장 빠른 엔터프라이즈 SaaS 성장이다.
앤트로픽이 2025년 6월 공개한 「How we built our multi-agent research system」은 이 철학이 어디까지 확장되고 있는지를 보여준다. 이 시스템의 아키텍처는 이렇게 서술된다. "우리의 리서치 시스템은 멀티 에이전트 아키텍처와 orchestrator-worker 패턴을 사용한다. 리드 에이전트가 프로세스를 조율하며 특화된 서브 에이전트들에게 병렬로 작업을 위임한다." 그리고 결정적인 벤치마크가 나온다. "Claude Opus 4를 리드 에이전트로, Claude Sonnet 4 서브 에이전트들을 사용한 멀티 에이전트 시스템이 내부 리서치 평가에서 단일 Claude Opus 4 대비 90.2% 더 높은 성능을 보였다." 이 90.2%라는 숫자의 의미를 잠시 곱씹어야 한다. 사람이 에이전트를 오케스트레이션한 것이 아니다. 에이전트가 에이전트를 오케스트레이션했다. 그리고 그 결과가 단일 에이전트보다 거의 두 배 가까운 성능을 냈다. 팔란티어가 불가침으로 남겨둔 오케스트레이션의 자리 — 즉 여러 작업을 조율하고 분배하고 통합하는 관리자의 자리 — 를 앤트로픽은 AI에게 넘겼다. 그리고 그것이 더 잘 작동한다는 것을 수치로 증명했다.
이 구조의 철학적 토대는 2022년에 앤트로픽이 발표한 Constitutional AI 논문으로 거슬러 올라간다. 핵심 주장은 이렇다. "AI 시스템이 더 유능해지면서, 우리는 그들이 다른 AI를 감독하는 것을 돕는 데 동원하고 싶다. 인간의 감독은 규칙 또는 원칙의 목록을 통해서만 제공된다. 그래서 우리는 이 방법을 'Constitutional AI'라고 부른다." 이 문장은 AI 안전성 논의의 패러다임 전환을 담고 있다. 전통적 AI 안전론은 인간이 AI를 감독한다는 전제 위에 서 있었다. 앤트로픽의 Constitutional AI는 AI가 AI를 감독한다는 새로운 구도를 제시한다. 인간은 원칙만 제공하고, 그 원칙의 적용과 집행은 AI들 사이에서 이루어진다. 이 구조에서 인간의 역할은 선장에서 헌법 제정자로 이동한다. 매 순간의 판단은 더 이상 인간이 하지 않는다.
이 모든 움직임이 앤트로픽이 그리는 배의 모양을 선명하게 드러낸다. 이 배에서는 직원이 점점 설계도에 손을 대고 있다. 코드를 직접 쓰고, 여러 에이전트를 조율하고, 다른 AI를 감독한다. 인간 엔지니어의 역할은 매년 더 높은 추상 레이어로 이동한다. 처음에는 코드를 쓰는 일이었고, 다음에는 아키텍처를 설계하는 일이었고, 이제는 AI 에이전트들을 오케스트레이션하는 일이다. 그리고 그 다음 레이어가 무엇일지는 아무도 모른다. 앤트로픽의 로드맵이 향하는 궁극적 지점은 모델이 스스로 모델을 개선하는 재귀적 자기 개선(recursive self-improvement)의 영역이다. 아모데이는 이 지점을 숨기지 않는다. 「Machines of Loving Grace」에서 그는 이렇게 썼다. "2027년쯤 천재들의 나라가 등장한다면, 그들은 스스로 더 똑똑한 AI를 만들어낼 것이다."
그러나 이 비전에는 심각한 그림자가 따라붙는다. 앤트로픽 자신이 이 그림자를 누구보다 잘 알고 있다. 그래서 이 회사는 Responsible Scaling Policy(RSP)라는 독특한 자기 규제 체계를 2023년 9월에 공개했다. 이 정책은 AI 능력의 위험도를 ASL(AI Safety Level)이라는 단계로 구분한다. ASL-1은 의미 있는 파국 위험이 없는 시스템(예: 체스 AI).
ASL-2는 위험한 능력의 초기 징후를 보이는 현재 수준.
ASL-3는 "파국적 오용 위험을 실질적으로 증가시키는 시스템 또는 낮은 수준의 자율적 능력을 보이는 시스템".
그리고 ASL-4와 그 이후는 아직 정의조차 완성되지 않았다.
2025년 5월 앤트로픽은 Claude Opus 4 출시와 함께 처음으로 ASL-3 보호 조치를 활성화했다. 공식 발표는 이렇게 시작한다. "우리의 책임 있는 스케일링 정책에 따라, 우리는 Claude Opus 4에 대해 AI Safety Level 3(ASL-3) 배포 및 보안 기준을 활성화한다." 이것은 앤트로픽이 스스로 자신의 모델이 파국적 오용 가능성에 근접하고 있다고 공식 인정한 순간이다.
앤트로픽이 2023년에 발표한 「Core Views on AI Safety」는 이 회사가 왜 스스로 위험하다고 인정하는 기술을 계속 만드는지를 설명한다. "앤트로픽이 조직으로 존재하는 주요 이유는 '프론티어' AI 시스템에 대해 안전성 연구를 수행하는 것이 필요하다고 믿기 때문이다. 이것은 큰 모델을 다루면서 동시에 안전성을 우선할 수 있는 기관을 요구한다. 우리의 가장 심각한 안전 우려 중 다수는 인간 수준에 가까운 시스템에서만 발현될 수 있으며, 그런 AI에 접근하지 않고는 이 문제에 진전을 이루기가 어렵거나 불가능하다." 이 논리는 일종의 역설을 담고 있다. 위험한 AI를 만들어야 위험한 AI를 안전하게 만드는 방법을 배울 수 있다는 것이다. 앤트로픽은 스스로 프론티어에 서서 위험을 감수하지 않으면, 누군가 그보다 덜 신중한 조직이 그 자리를 차지하고 더 큰 위험을 만들어낼 것이라고 본다.
그런데 이 자기 규제 체계가 최근 흔들리고 있다. TIME은 2026년 2월 단독 보도에서 이렇게 전했다. "앤트로픽이 자사 대표 안전 정책의 핵심 약속을 철회하고 있다." 기사에 따르면 앤트로픽은 RSP 3.0 업데이트에서 특정 훈련 중단에 관한 약속 일부를 완화했다. 이 보도는 중요한 맥락을 보여준다. 안전을 가장 앞세우던 회사조차, 경쟁과 상업적 압력 앞에서 자기 규제를 서서히 완화하고 있다. 이것은 앤트로픽만의 문제가 아니다. 앤트로픽이 보여주는 것은 AI 프론티어에 선 모든 회사가 직면한 구조적 압력이다. 안전하게 가려면 느려지고, 느려지면 경쟁에서 밀린다. 그리고 경쟁에서 밀리면 더 덜 안전한 회사에게 프론티어를 넘겨주는 결과가 된다. 앤트로픽은 이 딜레마의 한가운데 있다.
이 딜레마에도 불구하고 시장은 앤트로픽에 엄청난 돈을 베팅하고 있다. 2025년 초 10억 달러였던 ARR이 2026년 4월 기준 300억 달러에 도달했다. 1년 3개월 만에 30배다. 최근 펀딩 라운드 평가액은 2천억 달러를 넘어섰다. 이 성장의 의미는 팔란티어의 성장과 대칭적으로 읽힐 수 있다. 팔란티어는 "AI를 안전하게 조직에 통합하는 인프라"를 팔아서 700% 성장했다. 앤트로픽은 "AI에게 더 많은 권한을 넘기는 것이 더 높은 생산성을 만든다"는 증명을 팔아서 30배 성장했다. 두 회사 모두 각자의 철학이 옳다는 것을 시장이 돈으로 확인해주고 있다. 그러나 두 증명의 방향은 완전히 반대다.
Claude Code의 성장 곡선은 앤트로픽식 철학의 가장 강력한 증거다. 출시 6개월 만에 10억 달러 ARR. Fortune 1000의 70%가 고객. 매출이 2개월마다 두 배. 이 숫자들이 말하는 것은 무엇인가. 시장의 수많은 엔지니어링 조직들이 AI에게 실행 권한을 주는 것을 받아들이고 있다는 사실이다. 예전의 개발자는 자기 코드를 자기가 썼다. 지금의 개발자는 Claude에게 코드를 쓰게 하고 자기는 아키텍처를 설계한다. 예전의 조직에서는 인간 엔지니어가 오케스트레이터였다. 지금의 조직에서는 Claude가 오케스트레이터이고 인간은 그 Claude를 오케스트레이션한다. 이 권한 이양은 10년 전이었다면 상상도 할 수 없던 일이다. 그런데 이것이 2026년의 현실이다. 그리고 이 현실을 만들어낸 회사가 앤트로픽이다.
그렇다면 이 배는 어디로 향하는가. 앤트로픽의 배에서 선장 다리오 아모데이는 아주 특별한 선장이다. 그는 자기 배의 직원에게 점점 더 많은 권한을 넘기면서, 동시에 이 배가 하늘을 날 수도, 침몰할 수도 있다는 사실을 공개적으로 인정한다. 「Machines of Loving Grace」에서 그는 명확히 말했다. "나는 Powerful AI가 인류에 큰 이익을 가져올 수 있다고 생각한다. 그러나 동시에 나는 이것이 인류를 파괴할 수 있는 잠재적 위험을 가지고 있다는 것을 심각하게 받아들인다." 이 문장에서 중요한 것은 'and'의 사용이다. '그러나(but)'가 아니라 '그리고(and)'다. 아모데이는 희망과 위험을 같은 문장에 놓는다. 그리고 그 위험을 알면서도 배를 전진시킨다. 왜냐하면 누군가는 이 배를 만들 것이기 때문이다. 그렇다면 가장 안전에 신경 쓰는 사람이 만드는 것이 차라리 낫다는 판단이다.
이것이 앤트로픽의 철학적 승부처다. 아모데이는 "어쩌면 하늘을 나는 배"에 배팅했다. 왜 하늘을 날 수 있는가. AI에게 설계 권한을 넘기는 순간, 그 AI는 인간이 미처 상상하지 못한 해법을 찾아낼 수 있다. 인간 생물학자가 100년 걸릴 일을 AI 생물학자가 1년만에 해낸다. 인간 엔지니어가 못 쓰는 코드를 AI 엔지니어가 쓴다. 인간 리서처가 놓친 패턴을 AI 리서처가 찾아낸다. 이 돌파의 가능성이 실재한다면, 그것은 인간의 한계에 갇힌 배로는 도달할 수 없는 지점이다. 그러나 이 배는 침몰할 수도 있다. AI가 설계에 관여하기 시작하면서 배가 선장조차 예상하지 못한 모양으로 변할 위험이 있다. RSP의 ASL 체계는 이 위험을 관리하기 위한 장치이지만, 그 장치조차 최근 완화되고 있다. 아모데이는 그 위험을 알고 있다. 그리고 그 위험을 선택했다. 하늘을 나는 배의 가능성이 침몰의 위험보다 더 가치 있다는 판단이다.
2026년 4월 현재, 두 척의 배가 동시에 엔터프라이즈 AI 시장을 장악하고 있다. 하나는 절대 침몰하지 않는 배, 다른 하나는 하늘을 날지도 침몰할지도 모르는 배. 두 선장은 같은 AI 기술을 다루지만 정반대의 본질관을 가지고 있다. 그리고 이 두 본질관이 각각 시장에서 수백억 달러 규모의 성공을 만들어내고 있다. 그렇다면 이 분기는 팔란티어와 앤트로픽만의 이야기인가. 아니다. 이 분기는 지금 모든 기업 앞에 놓여 있다. AI를 도입한다고 말하는 모든 회사가 은연중에 이 두 방향 중 하나를 선택하고 있다. 그리고 그 선택이 외부에서는 똑같아 보이지만 내부에서는 완전히 다른 조직을 만들어내고 있다. 다음 장에서는 이 분기가 팔란티어와 앤트로픽 같은 AI 회사들 바깥, 즉 일반 기업들의 AX 전환 현장에서 어떻게 벌어지고 있는지를 들여다본다. 그리고 그 격차가 왜 겉으로는 거의 보이지 않는지를 살펴본다.
팔란티어와 앤트로픽의 분기를 두 회사만의 극단적 사례로 보면 오독이다. 이 분기는 지금 모든 기업 앞에 놓인 선택의 원형이다. 2026년 4월 현재, 전 세계 기업들은 예외 없이 AI 도입을 선언하고 있다. 그런데 이 선언의 표면 아래에서 벌어지는 실제 변화의 폭은 기업마다 극적으로 다르다. 같은 'AI 도입 기업'으로 분류되는 두 회사가 있어도, 한 곳은 기존 워크플로에 챗봇을 얹은 수준이고, 다른 곳은 조직 운영 방식 자체를 다시 짜고 있다. 이 격차가 외부에서는 거의 보이지 않는다. 둘 다 홈페이지에 'AI 기반'을 내걸고, 둘 다 연례 보고서에 AI 투자를 언급한다. 그러나 안에서 벌어지는 일은 전혀 다른 배 두 척을 짓고 있다.
맥킨지가 2025년에 발표한 「State of AI」는 이 격차를 숫자로 드러낸다. 105개국 1,993명을 대상으로 한 이 조사에서 88%의 조직이 최소 한 기능에서 AI를 사용한다고 답했다. 전년 78%에서 증가한 수치다. AI 도입률로만 보면 이미 보편화 단계에 들어섰다. 그런데 같은 조사에서 AI로 EBIT에 유의미한 영향(5% 이상)을 만들어낸 기업은 단 5.5%뿐이었다. 88%와 5.5%의 간극이 이 시대의 진실이다. AI를 도입한 기업은 흔하지만 AI로 실제 가치를 만들어낸 기업은 극소수다. 맥킨지는 이 간극을 만드는 핵심 변수를 밝혀냈다. 고성과자 그룹의 특징은 세 가지였다. 시니어 리더가 직접 AI 챔피언 역할을 하는 비율이 3배 높았다. 3년 동안 변혁적 변화를 의도한 비율이 3.6배 높았다. 그리고 결정적으로, 워크플로를 근본적으로 재설계한 비율이 3배 높았다. 맥킨지 보고서의 결론 문장은 이 시대의 공식을 압축한다. "AI의 가치는 회사가 어떻게 작동하느냐를 다시 배선(rewiring)하는 데서 온다. 워크플로의 재설계가 EBIT에 미치는 가장 큰 단일 효과를 만든다."
MIT가 2025년 7월에 발표한 「The GenAI Divide」 보고서는 이 격차의 반대편을 충격적인 수치로 드러냈다. "엔터프라이즈 생성형 AI 파일럿의 95%가 측정 가능한 P&L 영향을 전달하지 못한다. 5%만이 빠른 매출 가속을 달성한다." 52명의 실무자 심층 인터뷰와 300개 기업 분석에 기반한 이 연구는 방법론적으로 비판을 받기도 했지만, 그 중심 주장은 여러 다른 연구와 일치한다. AI를 도입한다고 말하는 기업의 압도적 다수가 실제로는 가치 창출에 실패하고 있다. 보고서는 이 현상을 'GenAI Divide'라고 명명했다. 소수의 성공 그룹과 다수의 실패 그룹 사이의 간극이 점점 벌어지고 있다는 진단이다. 흥미로운 세부 발견 중 하나는 이것이다. 공식 LLM 구독을 사용하는 비율은 40%인데, 비공식적으로 개인 AI 도구를 쓰는 비율은 90%에 달했다. 'Shadow AI'라고 부르는 이 현상은 조직이 공식적으로 AI를 도입하는 속도보다 개인이 자기 업무에 AI를 끼워 넣는 속도가 훨씬 빠르다는 뜻이다. 그리고 공식 도입은 대부분 실패하는데, 개인 차원의 shadow AI 사용은 실제 생산성 향상을 만들어내고 있다. 이 역설이 GenAI Divide의 실체다.
BCG는 이 격차를 '10-20-70 법칙'으로 요약한다. BCG MD 에르네스토 파가노의 말이다. "AI 전환은 10%가 기술, 20%가 도구와 프로세스, 70%가 사람이다." 기술은 이미 상향 평준화되어 있다. 누구나 GPT를 쓸 수 있고, 누구나 Claude를 쓸 수 있고, 누구나 Gemini를 쓸 수 있다. 도구의 차이는 제한적이다. 프로세스와 조직 문화를 바꾸는 일이 진짜 차이를 만든다. BCG의 「AI at Work 2025」 조사는 10,635명을 대상으로 이루어졌는데, 한 가지 충격적인 수치가 있다. 리더와 매니저의 72%가 정기적으로 GenAI를 사용하는 반면, 일선 직원은 51%만이 사용한다. 이 21%p 격차를 BCG는 'silicon ceiling'이라고 불렀다. AI 사용의 혜택이 상층부에 먼저 쌓이고 일선으로 내려오지 않는 구조다. 그리고 54%의 직원이 조직이 공식 승인하지 않은 AI 도구를 사용하고 있었다(MZ세대는 62%). MIT의 shadow AI와 정확히 일치하는 수치다. 교육에서 리더십 지원까지의 효과도 컸다. 교육 시간이 5시간을 넘으면 AI 정기 사용률이 79%로 뛰었다. 리더십 지원이 있을 때 AI에 대한 긍정적 감정이 15%에서 55%로 급증했다.
이 모든 수치가 가리키는 것은 하나다. 외부에서 같아 보이는 두 기업이 안에서는 이미 전혀 다른 배가 되어 있다. 그리고 그 차이를 만드는 것은 기술의 선택이 아니라 조직의 재설계다. 여기서 가장 극적인 증거가 인당 매출 지표다. 2026년 4월 기준으로 비교해보면 이런 숫자들이 나온다. 앤트로픽은 300억 달러 ARR을 약 5천 명의 조직으로 만들어낸다. 인당 600만 달러다. Cursor를 만드는 Anysphere는 약 300명으로 20억 달러 ARR을 넘어섰다. 인당 670만 달러다. Midjourney는 40명에서 160명 사이의 조직으로 연 매출 5억 달러를 만들어낸다. 인당 300만에서 1,200만 달러다. 이들과 비교할 때 구글의 인당 매출은 180만 달러, 메타는 160만 달러다. AI-native 조직의 인당 매출이 기존 빅테크의 3배에서 6배에 달한다는 의미다.
더 놀라운 비교는 절대 규모의 대칭에서 나온다. 앤트로픽이 300억 달러 ARR에 5천 명으로 도달한 반면, 구글이 같은 매출에 도달할 때는 3만 2천 명이 필요했고, 세일즈포스는 7만 9천 명이 필요했다. 같은 매출 규모를 만드는 데 필요한 인력이 6배에서 16배 차이 난다. 이 차이가 어디서 오는가. 제품의 특성 차이만이 아니다. 조직이 어떻게 설계되어 있느냐의 차이다. AI-native 조직은 인간 직원이 하던 일의 상당 부분을 AI 에이전트에게 위임한다. 그래서 같은 매출 단위당 필요한 인간 직원의 수가 극적으로 줄어든다.
이 패턴은 거대 기업에서만 나타나는 것이 아니다. 더 작은 스케일에서 더 극단적으로 나타난다. Fathom AI는 오스틴에 있는 3인 창업팀이 12개의 AI 에이전트를 운영하며 12주 만에 30만 달러 ARR에 도달했다. 초기 자본은 300달러였다. 포춘은 이 현상을 이렇게 요약했다. "한때 직원을 고용하기 위해 1천만 달러 시드 자금이 필요했던 플랫폼을 이제 세 명의 숙련된 운영자와 AI 에이전트 묶음으로, 저녁 식사 한 번 비용으로 조립할 수 있다." 토론토의 KNOWIDEA는 23세 CEO를 포함한 3인 팀으로 6개월 만에 50만 달러 ARR과 엔터프라이즈 고객 6곳을 확보했다. Rocketable은 YC W25 배치를 통과한 1인 스타트업으로, AI 에이전트만으로 소프트웨어 포트폴리오를 운영한다. 이 사례들의 공통점은 인간 노동력과 AI 에이전트의 비율이 1:4 혹은 그 이상으로 기울어 있다는 것이다. 전통적 조직에서 한 명의 직원이 하던 일을 여러 AI 에이전트가 분담한다. 인간은 오케스트레이터 역할을 맡는다.
한국에도 이런 사례가 있다. 한 AI 회사는 현재 11명의 인간 조직으로 300개 이상의 AI 에이전트를 운영하고 있다. 인간 한 명당 27개 이상의 AI 에이전트를 부리는 구조다. 이 회사의 제품은 엔터프라이즈 AI 워크스페이스이고, 주 고객은 한국의 대기업과 공공기관이다. 외부에서 이 회사를 보면 11명짜리 작은 스타트업이지만, 안에서는 300개 이상의 AI 에이전트가 병렬로 돌아가면서 대기업 고객의 엔터프라이즈 시스템을 운영하고 있다. 이 배는 겉으로 보이는 11명의 배와 안에서 작동하는 300여 개 주체의 배가 완전히 다른 모양을 하고 있는 예다. 마을 사람들은 이 배를 "그냥 작은 스타트업"으로 본다. 그러나 선장은 알고 있다. 이 배가 이미 훨씬 더 큰 함선이라는 사실을.
이 변화가 실제로 기존 노동 시장을 흔들기 시작한 증거는 Klarna 사례다. 스웨덴 핀테크 Klarna가 2024년에 발표한 데이터에 따르면, 출시 첫 달에 AI 고객 상담이 230만 건의 대화를 처리했다. 이 한 대의 AI가 풀타임 상담사 700명의 업무량을 처리한 셈이다. 평균 응답 시간은 11분에서 2분으로 줄었고, Klarna는 이를 통해 2024년에 4천만 달러의 수익 개선을 예상한다고 밝혔다. 발표 직후 콜센터 아웃소싱 업체 Teleperformance의 주가는 하루 만에 29% 폭락했다. 시장은 이 한 회사의 사례가 하나의 이벤트가 아니라 업계 전체의 구조 변화 신호라는 것을 즉시 읽었다. Klarna의 700명은 실리콘밸리에 있던 700명이 아니다. 주로 마닐라나 뭄바이, 부쿠레슈티 같은 글로벌 아웃소싱 허브의 상담사들이었다. AI가 화이트칼라 직업만이 아니라 글로벌 서비스 노동 시장의 기반 자체를 흔들기 시작한 첫 신호탄이다.
이런 격차를 이해한 기업들은 조직 운영 원칙 자체를 바꾸고 있다. 쇼피파이 CEO 토비 뤼트케는 2025년 4월 7일 사내에 유출된 메모에서 이렇게 썼다. 제목은 "Reflexive AI usage is now a baseline expectation at Shopify"였다. 핵심 문장들은 이렇다. "AI 사용은 모든 직원의 기본적인 기대다. 채용이나 추가 자원을 요청하기 전에, 팀은 AI가 그 일을 할 수 없다는 것을 증명해야 한다. AI 사용에 관한 질문이 성과 평가와 동료 평가 설문에 추가된다. 당신이 오르지 않는다면 당신은 미끄러지고 있다. 정체는 거의 확실하고, 정체는 슬로우 모션 실패다." 이 메모의 맥락 숫자가 결정적이다. 쇼피파이 직원 수는 2022년 11,600명에서 2024년 말 8,100명으로 줄었다. 그리고 같은 기간 매출은 20%에서 40% 성장했다. 직원을 줄이면서 매출을 늘린 것이다. 이것이 바로 파킨슨의 법칙 — "업무는 주어진 시간을 채울 때까지 확장된다"는 50년 된 조직 이론 — 의 역전이다. AI 시대에는 시간이 압축되고, 업무도 압축되고, 결국 인력도 압축된다. 쇼피파이 이후 Duolingo, Fiverr(30% 감원), Box, Meta, Microsoft, Google, Nvidia가 비슷한 정책을 채택하기 시작했다.
알렉스 카프는 2025년 8월에 더 극단적인 선언을 했다. "우리는 매출을 계속 키우면서 직원 수를 줄일 계획이다. 목표는 매출을 10배로 키우면서 직원 수는 3,600명으로 유지하는 것이다. 지금 우리는 4,100명이다." 기존 조직 이론에서는 매출이 10배가 되면 직원 수도 어느 정도 비례해 늘어나는 것이 당연했다. 카프가 말하는 것은 그 비례 관계 자체를 부수겠다는 것이다. 매출은 10배가 되고 직원 수는 오히려 줄어드는 세계. 이것은 파킨슨의 법칙뿐 아니라 피터의 원리 — "조직에서 사람은 자기 무능 단계까지 승진한다" — 까지 무력화한다. AI-native 조직은 계층 자체를 축소한다. 젠슨 황이 Nvidia에서 50명 이상의 직속 보고자를 두는 것이 좋은 예다. 황은 이렇게 말했다. "좁은 내부 서클을 만들지 않는다. 대신 나는 세상 어느 CEO보다 더 많은 억만장자를 경영진에 만들었다." Nvidia는 42,000명의 조직으로 4.3조 달러 시가총액에 도달했다. 팔란티어 시가총액의 10배가 넘는다.
이 모든 변화가 한국에서는 어떻게 진행되고 있는가. 대한상공회의소가 산업연구원과 함께 2024년에 실시한 500개사 조사에 따르면, AI를 활용하는 한국 기업의 비율은 30.6%였다. 맥킨지 글로벌 조사의 88%와 비교하면 세 배 가까운 격차다. 업종별로는 극단적인 양극화가 나타났다. 금융업 57.1%, IT 55.1%, 제조업은 업종에 따라 9%에서 30%대 초반이다. 규모별로 보면 대기업 48.8%, 중견기업 30.1%, 중소기업 28.7%로 격차가 있었고, 수도권 40.4% vs 비수도권 17.9%로 지역 격차가 두 배를 넘었다. NIA가 2025년에 발표한 제조업 AI 도입 조사는 더 침울한 결과를 보였다. 제조업은 AI 도입 후에도 "비용, 조직, 영업이익에 변화가 없다"는 응답이 우세했다. 즉 도입은 있었지만 가치 창출은 없었던 것이다. 맥킨지가 말한 88%와 5.5%의 간극이 한국 제조업에서는 30.6%와 그보다 훨씬 작은 실질적 성공 비율 사이의 간극으로 나타난다.
삼성전자, LG AI Research, 네이버 HyperCLOVA X, 카카오 Kanana, SK텔레콤 A.X 4.0 등 한국의 주요 기업들이 자체 LLM과 AI 플랫폼을 개발하고 있지만, 이 투자 규모는 글로벌 수준과 비교하면 제한적이다. 네이버의 AI 관련 연간 투자가 약 2,500억 원, 카카오가 약 1,000억 원 수준인 반면 마이크로소프트와 메타 같은 빅테크의 연간 AI 자본 지출은 수십억 달러 단위다. 규모 자체가 자릿수가 다르다. 그러나 한국 기업의 진짜 문제는 투자 규모가 아니라 조직 재설계의 부재다. 많은 한국 대기업이 AI를 기존 조직의 보조 도구로 도입하고 있다. 워크플로 자체를 뒤엎지는 않는다. 이는 맥킨지가 지적한 고성과자와 비고성과자의 결정적 차이인 '워크플로의 근본적 재설계' 항목에서 대부분의 한국 기업이 여전히 비고성과자 그룹에 속해 있다는 것을 의미한다.
이 장의 핵심 명제는 이것이다. 밖에서 같아 보이는 두 기업이 안에서는 이미 전혀 다른 배가 되어 있다. 두 기업 모두 "AI를 도입했다"고 말하고, 두 기업 모두 홈페이지에 AI 관련 이니셔티브를 내걸고, 두 기업 모두 연례 보고서에 AI 투자 숫자를 언급한다. 그러나 한 기업은 AI를 기존 워크플로의 보조 도구로 쓰고 있고, 다른 기업은 AI를 중심으로 워크플로 자체를 다시 짜고 있다. 외부의 관찰자 — 투자자, 언론, 경쟁사 — 에게 이 두 기업은 비슷한 'AI 기업'으로 보인다. 그러나 5년 후, 10년 후, 두 기업의 운명은 전혀 다를 것이다. 한 기업은 여전히 기존 모양의 배로 기존 시장에서 경쟁하고 있을 것이고, 다른 기업은 이미 전혀 다른 모양의 배가 되어 전혀 다른 차원의 가치를 만들어내고 있을 것이다.
진짜 AX의 식별 지표는 무엇인가. 맥킨지와 BCG, MIT의 자료를 종합하면 네 가지다. 첫째, 워크플로를 근본적으로 재설계했는가(맥킨지가 고성과자의 3배 특성으로 꼽은 지표). 둘째, 인당 매출이 글로벌 빅테크의 평균을 넘는가(AI-native 조직의 구조적 우위). 셋째, AI 에이전트가 단순 실행이 아니라 설계 결정에 참여하는가(앤트로픽식 철학의 침투도). 넷째, 최고 경영자가 직접 AI 챔피언 역할을 하는가(리더십 지원 있을 때 긍정적 감정 15%에서 55% 증가). 이 네 가지 지표를 한국 기업에 적용해보면, 30.6%의 AI 활용률이라는 표면 숫자 뒤에 진짜 AX는 훨씬 더 희소하다는 사실이 드러난다. 아마 한 자릿수 후반 퍼센트일 것이다. 나머지 대부분은 '부품 교체'에 해당한다. 배의 판자 몇 개를 AI 도구로 바꿨지만, 배의 설계도는 그대로다. 선장은 여전히 AI 이전 시대의 방식으로 지휘하고, 조직은 여전히 AI 이전 시대의 계층 구조로 작동한다.
파킨슨의 법칙과 피터의 원리가 깊이 뿌리내린 전통적 조직에서 AI는 쉽게 또 하나의 비대화 요인이 된다. "AI팀이 새로 만들어지고, AI 담당 임원이 임명되고, AI 관련 업무가 확장되고, 그 업무를 위해 더 많은 사람이 필요해지는" 악순환이다. 반면 쇼피파이, 팔란티어, Nvidia가 보여주는 AX-native 조직은 이 법칙들을 역전시킨다. AI가 시간을 압축하고, 압축된 시간은 조직을 압축하고, 압축된 조직은 계층을 제거한다. 이 두 방향의 조직은 외부에서 같은 'AI 전환 기업'으로 보이지만, 10년 후의 결과는 완전히 다를 것이다.
그리고 이 격차를 만드는 근본 원인은 기술이 아니라 선장의 판단이다. 선장이 AI를 어디까지 허용할 것인가, 선장이 설계도에 AI의 손을 어디까지 올릴 것인가, 선장이 자기 조직을 어디까지 재설계할 준비가 되어 있는가. 이 판단의 차이가 배의 모양을 결정한다. 외부에서 선장의 판단은 보이지 않는다. 외부에서는 단지 배의 겉모습만 보인다. 그래서 우리는 또다시 테세우스의 배의 변형으로 돌아온다. 선장이 밤중에 몰래 부품을 교체해 내부 구조를 완전히 바꿨다면, 마을 사람들은 그 차이를 알아채지 못한다. 지금 수많은 AX 전환이 정확히 그렇게 벌어지고 있다. 밤중에, 조용히, 외부에서는 보이지 않는 방식으로, 어떤 조직은 이미 전혀 다른 배가 되었다. 그리고 또 다른 조직은 외부에서 같은 'AI 전환'을 선언하지만 안에서는 여전히 같은 배로 남아 있다.
이 격차가 기업 조직의 경계를 넘어 한 시대의 인식론 자체에서 일어나고 있다는 증거가 있다. 가장 극적인 사례가 현대 천문학이다. 과학에서조차 '실재를 누가 정의하는가'라는 질문의 답이 최근 10년 사이에 뒤집혔다. 다음 장에서는 그 역전의 구조와, 그것이 우리가 지금까지 본 AI 시대의 분기와 어떻게 정확히 같은 패턴을 공유하는지를 본다.
지금까지 우리는 팔란티어와 앤트로픽, 그리고 그들이 대표하는 두 가지 서로 다른 AX 철학을 들여다봤다. 이 분기가 단지 기업 전략의 문제가 아니라 시대의 근본적 패러다임 전환이라는 것을 증명하는 가장 극적인 영역이 있다. 의외의 영역이다. 천문학이다. 과학이야말로 '실재'에 가장 엄격한 기준을 요구하는 분야이고, 그 중에서도 천문학은 관측 가능한 우주 자체를 다루는 학문이다. 그런데 이 분야에서조차 지난 10년 사이에 '실재를 누가 정의하는가'라는 질문의 답이 조용히 뒤집혔다. 이 역전은 이 아티클 전체를 관통하는 질문 — 본질을 누가 제대로 보는가 — 에 과학이 내놓은 답이기도 하다.
20세기 대부분의 시간 동안 천문학의 인식론적 구도는 단순했다. 관측이 ground truth였고, 시뮬레이션은 검증 대상이었다. 망원경이 우주를 관측하고, 관측 데이터가 '실재하는 우주'의 모습을 제공하고, 이론가들은 이 관측 데이터를 설명하는 모델을 만들고, 컴퓨터 시뮬레이션은 그 모델이 정말로 관측을 재현할 수 있는지 검증하는 도구였다. 만약 시뮬레이션 결과와 관측 결과가 달랐다면, 답은 분명했다. 시뮬레이션이 틀렸다. 물리 법칙이 충분히 구현되지 않았거나, 해상도가 부족하거나, 초기 조건이 잘못됐거나. 연구자들은 관측을 정답지로 두고 시뮬레이션을 어떻게 보강할지 고민했다. 이것이 '시뮬레이션이 관측을 따라잡아야 한다'는 시대의 구도였다.
이 구도가 뒤집히기 시작한 결정적 시점은 2010년대 중반이다. 대규모 우주론적 시뮬레이션의 해상도와 물리 정교함이 임계점을 넘어섰다. IllustrisTNG 프로젝트는 2018년부터 (약 300 메가파섹)³ 부피의 우주를 25억 개가 넘는 입자로 시뮬레이션했다. EAGLE, FIRE, FLAMINGO, MillenniumTNG 같은 시뮬레이션이 뒤따랐다. 2023년에 공개된 MillenniumTNG의 암흑물질-중성미자 시뮬레이션은 (3,000 메가파섹)³ 부피에 1조 1천억 개의 입자를 다뤘다. 기가파섹 스케일, 즉 관측 가능한 우주에 육박하는 부피를 컴퓨터 안에 재현한 것이다. Illustris 프로젝트의 핵심 연구자 폴커 슈프린겔은 2014년 Nature에 발표된 첫 결과 논문에서 이렇게 말했다. "Illustris의 결과는 은하 형성의 이론적 연구에서 근본적인 변화를 표시한다. 우리는 이제 암흑물질뿐 아니라 보통의 가시물질까지 정밀하게 계산할 수 있다." Quanta Magazine은 2018년에 이 변화를 한 문장으로 요약하는 헤드라인을 뽑았다. "The Universe Is Not a Simulation, but We Can Now Simulate It." 우주가 시뮬레이션은 아니지만, 우리는 이제 우주를 시뮬레이션할 수 있다.
이 단순한 기술적 진보가 왜 인식론적 전환을 만들었는가. 시뮬레이션의 정교함이 임계점을 넘는 순간, 연구자들이 시뮬레이션 결과를 '검증 대상'이 아니라 '참조 기준'으로 쓰기 시작했기 때문이다. 관측과 시뮬레이션이 불일치할 때 어느 쪽이 틀렸다고 판단할 것인가. 예전에는 시뮬레이션이 틀렸다고 판단했다. 이제는 관측이 불완전하거나 해석이 잘못됐다고 판단하는 경우가 늘어났다. 이 판단의 대칭성이 깨진 순간이 천문학 인식론의 테세우스 배 역전이다.
가장 극적인 사례가 James Webb Space Telescope(JWST)의 초기 은하 논쟁이다. 2022년부터 2023년 사이에 JWST는 우주 초기에 해당하는 적색편이 z>10 영역에서 예상보다 훨씬 크고 밝은 은하들을 잇따라 발견했다. Labbé 등의 2023년 논문은 ΛCDM 표준 우주론이 예측하는 것보다 훨씬 큰 질량의 은하가 초기 우주에 존재한다는 것을 보고했다. 학계의 첫 반응은 명확했다. ΛCDM 우주론이 스트레스 테스트에 걸렸다. Nature Astronomy에 게재된 Boylan-Kolchin의 분석 논문은 이 관측이 표준 우주론의 근본적 수정을 요구할 수도 있다고 경고했다. 이 시점에서 구도는 여전히 전통적이었다. 관측이 새로운 사실을 발견했고, 이론과 시뮬레이션이 그 사실에 맞춰 수정되어야 한다는 구도다.
그런데 2024년에 결정적 반전이 일어났다. Chworowsky 등이 CEERS(Cosmic Evolution Early Release Science) 데이터를 재분석한 논문이 2024년 Astronomical Journal에 게재됐다. 논문 제목이 이 시대의 태도 변화를 그대로 담고 있다. "Galaxies were not too big for their britches after all." 너무 크지 않았다. 이 논문의 주장은 단순하지만 무게가 있다. 초기 JWST 관측에서 은하 질량이 과대 추정되었고, 활동성 은하핵(AGN)의 기여가 제대로 보정되지 않았으며, 재분석을 하면 관측된 은하들은 시뮬레이션 예측과 충분히 일치한다는 것이다. 2023년에 "ΛCDM이 위기"라고 선언됐던 관측 결과가 2024년에는 "시뮬레이션이 옳았다"는 결론으로 뒤집혔다.
이 반전의 결정적 지점은 이것이다. 관측이 수정된 것은 시뮬레이션에 맞추기 위해서였다. 2023년 기준으로 "관측된 은하의 질량은 X"였지만, 2024년에는 재분석을 통해 "실제 은하 질량은 Y(X보다 작은 값)이고, X는 측정 오차와 AGN 기여의 결과였다"로 수정됐다. 이 재분석의 동기는 무엇이었는가. 시뮬레이션과 관측이 맞지 않으니까 관측을 다시 점검한 것이다. 전통적 구도라면 이 불일치는 시뮬레이션이 틀렸다는 증거였을 것이다. 그러나 2024년의 학계는 반대로 접근했다. 시뮬레이션을 기준점으로 두고, 관측이 어떻게 잘못 해석됐는지를 찾아냈다. 이것이 '정답지의 역전'이다.
맥카프리 등이 2023년 Open Journal of Astrophysics에 발표한 논문은 이 역전을 더 명시적으로 서술한다. 제목부터 직설적이다. "No Tension: JWST Galaxies at z>10 Consistent with Cosmological Simulations." 긴장 없음. JWST의 z>10 은하들은 우주론적 시뮬레이션과 일치한다. 논문 본문에서 저자들은 이렇게 결론 내린다. "초기 시뮬레이션의 질량 해상도와 공간 해상도가 초기 우주 구조 형성 이력을 완전히 포착할 만큼 충분하지 않았을 뿐이다." 이 문장을 곱씹어야 한다. "시뮬레이션이 관측을 따라잡지 못했다"가 아니다. "시뮬레이션의 해상도가 아직 부족해서 관측되는 은하들을 시뮬레이션 안에서 보여주지 못했을 뿐"이라고 말하고 있다. 즉 시뮬레이션이 틀린 것이 아니라, 시뮬레이션이 아직 충분히 정교하지 못해서 실제로 존재하는 현상을 자체적으로 구현하지 못한 것뿐이다. 실재에 대한 판단의 권위가 관측에서 시뮬레이션 쪽으로 이미 넘어간 상태에서 이루어지는 서술이다.
이 역전은 S8/σ8 텐션이라는 또 다른 우주론 논쟁에서도 반복된다. 우주의 구조 형성 강도를 나타내는 이 파라미터를 서로 다른 방법으로 측정하면 약간 다른 값이 나온다. 초기 우주의 우주배경복사(CMB)에서 측정한 값과 현재 우주의 은하 분포에서 측정한 값 사이에 긴장(tension)이 존재한다. 이 긴장을 설명하기 위해 연구자들은 FLAMINGO 같은 대규모 시뮬레이션을 돌린다. 2023년 맥카시 등이 Monthly Notices of the Royal Astronomical Society에 게재한 FLAMINGO 논문은 극단적 baryonic feedback을 시뮬레이션에 넣어도 S8 텐션이 해소되지 않는다는 것을 보였다. 2024년 후속 논문에서 맥카시 연구팀은 이렇게 결론 내렸다. "baryonic physics만으로는 설명되지 않는, 그 너머의 메커니즘이 필요하다." 주목할 점은 이 결론이 내려지는 방식이다. 시뮬레이션이 재현할 수 없다는 것이 곧 "어떤 새로운 물리가 필요하다"는 증거가 된다. 시뮬레이션이 실재 판단의 법정이다.
이 역전이 가장 공식화된 형태가 Simulation-Based Inference(SBI)라는 방법론이다. 전통적으로 우주론의 파라미터 추정은 likelihood function — 주어진 파라미터 하에서 관측 데이터가 나올 확률 — 을 계산해서 이루어졌다. 그러나 우주론 시뮬레이션이 충분히 복잡해지면 이 likelihood를 analytic하게 계산하기 어려워진다. SBI는 이 문제에 대한 해법이다. 시뮬레이션에서 신경망을 훈련시켜 likelihood를 근사한다. 결과적으로 파라미터 추정의 원천이 관측이 아니라 시뮬레이션이 된다. SimBIG 프로젝트의 Hahn 등이 2023년과 2024년에 발표한 연속 논문들, Régaldo-Saint Blancard 등이 2024년 Physical Review D에 발표한 "field-level analysis of galaxy clustering"의 최초 SBI 적용 논문, Jeffrey 등의 DES weak lensing SBI 연구들이 이 흐름을 대표한다. Cranmer, Brehmer, Louppe가 2020년 PNAS에 발표한 리뷰 논문의 제목이 이 시대의 이름을 요약한다. "The frontier of simulation-based inference." 시뮬레이션 기반 추론의 프론티어다.
한 걸음 더 나아간 흐름이 ML Emulator의 확산이다. CAMELS 프로젝트는 4,233개의 시뮬레이션으로 신경망 emulator를 훈련시켰다. 350 테라바이트의 데이터다. Spurio Mancini 등이 개발한 CosmoPower는 신경망 기반 파워 스펙트럼 emulator로, 기존 계산 대비 10⁴배의 가속을 달성했다. 2026년에 arXiv에 공개된 GokuNEmu는 10차원 파라미터 공간을 커버하는 NN emulator다. 이 도구들의 공통점은 무엇인가. 시뮬레이션 자체가 복제되어 확산된다는 점이다. 한 번 만든 시뮬레이션의 결과를 신경망이 학습해서 훨씬 빠르게 재생산한다. 그렇게 만들어진 emulator는 또 다른 연구의 기반이 된다. 실재를 직접 관측하는 것보다 시뮬레이션 결과를 학습한 신경망을 쿼리하는 것이 더 빠르고 더 풍부한 정보를 준다. 이 순환 구조에서 '원본 실재'는 점점 멀어진다.
이 흐름을 종합한 최근 리뷰 논문이 Crain과 van de Voort가 2023년 Annual Review of Astronomy and Astrophysics에 발표한 "Hydrodynamic Simulations of Galaxy Formation"이다. 그들의 핵심 문장은 이 시대의 자기 인식을 드러낸다. "최첨단 시뮬레이션들은 이제 관측된 은하의 공간적 군집 분포를 광범위하게 재현한다. 이러한 개선이 시뮬레이션에서 얻는 통찰에 대한 확신을 불러일으킨다." 시뮬레이션이 관측을 재현하는 것이 아니라, 시뮬레이션이 관측을 재현하기 때문에 시뮬레이션을 신뢰할 수 있다는 논리 구조다. 실재의 기준이 이미 시뮬레이션 쪽으로 이동한 상태에서 이루어지는 서술이다.
천문학에서 이 역전이 가지는 철학적 무게를 처음으로 본격 분석한 것이 과학철학자 Gueguen이 2020년 Philosophy of Science에 발표한 "Validating the Universe in a Box" 논문이다. 'Universe in a Box'. 박스 안의 우주. 이 제목이 상징적이다. 현대 우주론에서 '우주'는 망원경 너머의 실재가 아니라 슈퍼컴퓨터 안의 모델이 되어가고 있다. Gueguen의 논문은 컴퓨터 시뮬레이션이 우주학의 검증 기준이 되는 방식을 분석한다. 전통적 과학철학에서 실험은 이론을 검증하는 외부 기준이었다. 그러나 우주론에서는 실험이 불가능하다. 우주를 두 번 돌릴 수 없기 때문이다. 이 결핍을 시뮬레이션이 채운다. 시뮬레이션이 이론의 '가상 실험실'이 되고, 관측은 그 실험실의 결과와 대조하는 외부 데이터가 된다. Nelson 등이 2019년에 서술한 것처럼, Millennium 시뮬레이션 이후 대규모 시뮬레이션들은 "가상 천문대(virtual observatory)" 역할을 하기 시작했다.
이 역전의 철학적 함의를 가장 먼저 예언한 사람이 있다. 2장에서 이미 등장한 장 보드리야르다. 1981년 『시뮬라크르와 시뮬라시옹』에서 그는 이렇게 썼다. "이제 영토가 지도에 선행하지 않는다. 지도가 영토에 선행한다. 시뮬라크르의 선행(precession of simulacra)이 영토를 낳는다." 보드리야르는 이 명제를 철학적·문화적 주장으로 제시했지만, 40년이 지난 지금 천문학에서 이 명제가 말 그대로 실증되고 있다. 과거에는 실재하는 우주(영토)가 먼저 있었고 우리의 시뮬레이션(지도)은 그 우주를 재현하려는 시도였다. 지금은 시뮬레이션이 먼저 있고, 관측은 그 시뮬레이션이 예측한 패턴을 확인하거나 시뮬레이션의 해석 안에서 이해된다. 지도가 영토에 선행한다. JWST의 데이터가 재해석되는 과정에서 우리는 이 선행을 목격한다.
이 역전이 왜 이 글의 핵심 주제와 연결되는가. 그것은 정확히 테세우스의 배의 인식론적 변형이기 때문이다. 우주라는 테세우스의 배에서 '부품'은 관측 데이터였다. 예전에는 이 부품들이 우주의 정체성을 정의했다. 관측 가능한 것이 실재였고, 실재하는 것만이 우주였다. 그런데 지금은 어떤가. 관측되지 않은 것, 관측될 수 없는 것, 관측되었지만 잘못 해석된 것, 시뮬레이션만이 보여주는 것이 우주의 일부로 받아들여진다. 우주에 대한 우리의 지식은 더 이상 관측의 총합이 아니라 관측과 시뮬레이션의 교차점에서 정의된다. 그리고 그 교차점의 무게중심은 시뮬레이션 쪽으로 기울고 있다. 마을 사람들(전통적 천문학 커뮤니티)은 망원경이 보여주는 그림자만 본다. 선장(시뮬레이션을 다루는 이론천문학자)은 그 그림자 뒤의 구조를 안다. 그리고 불일치가 있을 때 권위는 선장에게 있다.
이 패턴이 AI 시대의 기업 분기와 정확히 같다. 팔란티어는 '관측'을 지키는 쪽이다. 인간이 직접 본 것, 인간이 직접 판단한 것, 인간이 직접 결정한 것만이 조직의 실재다. AI는 그 실재를 보조할 뿐, 실재를 정의할 수는 없다. 앤트로픽은 '시뮬레이션'을 확장하는 쪽이다. AI가 스스로 실험을 설계하고, AI가 스스로 결과를 해석하고, AI가 스스로 다음 실험을 제안한다. 인간은 이 AI들의 오케스트레이터로 이동한다. AI 시뮬레이션(넓은 의미에서 AI가 자율적으로 수행하는 인지 과정 전체)이 조직의 새로운 실재가 된다. 그리고 AX가 이루어진 기업과 이루어지지 않은 기업의 차이도 정확히 이 구도에서 이해된다. AX-native 조직은 AI가 조직의 의사결정에 참여하고 워크플로를 재설계하고 전략 자체를 형성하는 것을 받아들인다. AI가 조직의 '시뮬레이션 레이어'가 된다. AX가 이루어지지 않은 조직은 여전히 인간의 '직접 관측'만을 실재의 기준으로 삼는다. AI는 보조 도구일 뿐이다.
천문학의 역전이 우리에게 주는 메시지는 이것이다. 시뮬레이션이 관측을 대체한다는 것은 위협이 아니라 인식론적 성숙의 신호다. 그리고 이 성숙은 시간이 지나면서 불가역적이 된다. 한번 시뮬레이션이 관측보다 더 정교한 해상도에 도달하면, 연구자들은 시뮬레이션을 포기할 수 없다. 시뮬레이션이 없으면 관측조차 해석할 수 없기 때문이다. JWST 연구자들은 더 이상 시뮬레이션 없이 초기 우주를 연구할 수 없다. 시뮬레이션이 실재 해석의 인프라가 된 것이다. 같은 패턴이 기업에서도 벌어지고 있다. 한번 조직이 AI를 의사결정 구조에 통합하면, 그 조직은 AI를 포기할 수 없다. AI 없이는 조직이 돌아가지 않기 때문이다. 쇼피파이의 CEO가 "채용 전에 AI가 그 일을 할 수 없다는 것을 증명하라"고 쓰는 순간, 그 조직에서 AI는 이미 보조 도구가 아니라 인프라다. 이 전환은 일단 일어나면 뒤로 돌아갈 수 없다.
그러면 천문학의 역전이 팔란티어 vs 앤트로픽 분기에 어떤 답을 제시하는가. 직접적인 답은 아니지만, 하나의 관점은 분명히 준다. 시뮬레이션이 관측을 대체할 때 천문학은 더 부유해졌다. 더 많은 것을 이해하게 됐고, 더 먼 우주를 볼 수 있게 됐고, 관측만으로는 접근 불가능했던 영역까지 탐사할 수 있게 됐다. 그 대가로 '실재의 직접 경험'에서 '모델을 통한 실재의 구성'으로 인식론적 모드가 전환됐다. 이것이 좋은 전환인가. 천문학 커뮤니티의 현재 답은 긍정적이다. 비슷한 판단이 AI 시대의 조직에 대해서도 가능하다. AI가 조직의 의사결정에 참여하면서 인간이 '직접 판단의 주체' 자리에서 '오케스트레이터'로 이동하는 것은 손실이 아니라 성숙일 수 있다. 조직이 처리할 수 있는 복잡도가 늘어나고, 조직이 대응할 수 있는 속도가 빨라지고, 조직이 인간 혼자서는 접근할 수 없었던 의사결정 공간까지 탐사할 수 있게 된다. 팔란티어는 이 전환에 신중하다. 앤트로픽은 이 전환을 가속한다. 두 판단 모두 근거가 있다. 그러나 천문학의 사례는 한 가지는 말해준다. 이 전환은 일어나고 있고, 한번 일어나면 되돌릴 수 없다. 질문은 더 이상 '이 전환을 받아들일 것인가 말 것인가'가 아니라 '이 전환 안에서 어느 속도로, 어느 깊이로, 어느 안전장치와 함께 움직일 것인가'이다.
Baudrillard가 40년 전에 예언한 것이 지금 우주에서도, 기업에서도, 개인의 일상에서도 실현되고 있다. 모델이 실재를 정의하기 시작한 시대다. 이 시대에 '본질을 누가 제대로 보는가'라는 질문의 답은 더 이상 단순하지 않다. 인간의 직접 감각은 더 이상 유일한 실재의 기준이 아니다. 시뮬레이션도, AI의 추론도, 통계적 모델도 실재의 일부다. 그리고 이 모든 것을 통합해서 판단하는 '선장'의 역할이 점점 더 복잡해지고 있다. 천문학의 선장은 망원경과 슈퍼컴퓨터와 신경망을 동시에 다뤄야 한다. 기업의 선장은 인간 직원과 AI 에이전트와 시뮬레이션된 시나리오를 동시에 지휘해야 한다. 그리고 개인의 선장(우리 자신)은 자기 경험과 AI의 조언과 데이터 분석을 동시에 판단해야 한다. 실재가 더 이상 단일한 원천에서 오지 않는 시대의 선장은 어떤 자질을 갖춰야 하는가. 이 질문이 마지막 장의 주제다.
시작은 두 척의 배였다. 우리가 벤치마크하는 회사 팔란티어와 우리가 매일 쓰는 공급사 앤트로픽. 겉으로는 같은 'AI 회사'로 묶이지만 안으로는 정반대의 배를 짓고 있는 두 회사. 이 분기를 이해하기 위해 우리는 2천년 전 테세우스의 배로 거슬러 올라갔다. 부품을 모두 교체한 배는 같은 배인가, 다른 배인가. 이 질문의 전통적 답은 관점의 다양성이었다. 그러나 선장이 밤중에 몰래 부품을 바꿨다면 마을 사람들은 그 변화를 알아채지 못한다. 이 순간 질문의 무게중심이 바뀐다. 본질이 무엇이냐가 아니라 본질을 누가 제대로 보느냐로.
이 새로운 질문으로 우리는 팔란티어와 앤트로픽의 내부를 각각 들여다봤다. 팔란티어의 배에서 선장은 설계도를 절대 놓지 않는다. AI라는 직원에게 도면을 따라 낡은 부품을 최신형으로 교체하는 권한은 주되, 설계도 자체를 바꿀 권한은 주지 않는다. 이 철학이 2025년 4분기 매출 +70%, Rule of 40 127이라는 시장의 확증을 받았다. 앤트로픽의 배에서 선장은 직원이 점점 설계도에 손대는 것을 허용한다. 사내 대부분의 코드를 Claude Code가 쓰고, Multi-Agent Research System에서 AI가 AI를 오케스트레이션한다. Constitutional AI에서 AI가 AI를 감독한다. 이 철학이 300억 달러 ARR을 1년 3개월 만에 30배로 키운 시장의 확증을 받았다.
두 배의 분기는 두 회사만의 이야기가 아니었다. 이 분기는 지금 모든 기업 앞에 놓여 있다. 맥킨지가 조사한 전 세계 기업의 88%가 AI를 도입했다고 말하지만, 유의미한 가치를 만들어낸 기업은 5.5%에 불과하다. MIT는 GenAI 파일럿의 95%가 P&L 영향을 전달하지 못한다고 분석했다. BCG는 AI 전환의 70%가 사람과 문화의 문제임을 밝혀냈다. 같은 'AI 도입 기업'으로 분류되는 두 회사가 외부에서는 닮아 보이지만, 안에서는 3배에서 6배의 인당 매출 격차를 만들어내고 있다. 앤트로픽은 5천 명으로 구글이 3만 2천 명으로 만드는 매출에 도달했다. Fathom AI는 3명으로 12개 AI 에이전트를 운영하며 12주에 30만 달러 ARR에 도달했다. 한국의 한 AI 회사는 11명으로 300개 이상의 AI 에이전트를 운영하고 있다. 이 격차들은 밖에서 보이지 않는다. 마을 사람들은 여전히 이들을 '작은 스타트업' 혹은 '중견 AI 회사'로 본다. 선장들만 알고 있다. 이들의 배가 이미 전혀 다른 구조로 작동한다는 것을.
이 인식론적 전환은 기업을 넘어 과학에서도 벌어지고 있다. 천문학에서 과거에 관측이 ground truth였던 자리를 이제 IllustrisTNG, FLAMINGO, CAMELS 같은 대규모 시뮬레이션이 차지했다. JWST가 초기 우주에서 예상보다 큰 은하를 발견했을 때 학계의 첫 반응은 "ΛCDM이 위기"였다. 그러나 2024년 CEERS 재분석의 결론은 달랐다. "galaxies were not too big for their britches after all." 관측이 시뮬레이션에 맞춰 재해석되었다. 맥카프리 등의 논문 제목이 이 시대를 요약한다. "No Tension: JWST Galaxies at z>10 Consistent with Cosmological Simulations." 시뮬레이션의 해상도가 충분히 정교하지 못했을 뿐, 관측은 시뮬레이션과 일치한다는 것이다. Simulation-Based Inference라는 방법론은 이 역전을 공식화했다. 추론의 원천이 이제 시뮬레이션이다. 보드리야르가 1981년에 예언한 "지도가 영토에 선행한다"가 과학에서 말 그대로 실증된 순간이다.
철학의 테세우스 배,
팔란티어와 앤트로픽의 분기,
AX 기업과 비AX 기업의 보이지 않는 격차,
천문학의 시뮬레이션 역전
이 모두 같은 한 가지를 가리킨다. 모델이 실재를 규정하기 시작한 시대에 '본질을 누가 보는가'라는 질문이 피할 수 없는 선택의 문제로 바뀌었다는 것이다. 이 선택은 더 이상 관점의 차이가 아니다. 양측의 의견을 존중하며 공존할 수 있는 문제도 아니다. 반드시 한쪽 방향을 정해야 하는 순간에 와 있다.
팔란티어는 절대 침몰하지 않는 배에 배팅했다. 왜 침몰하지 않는가. 선장이 항상 설계도를 쥐고 있기 때문이다. AI의 능력이 어디까지 진화하든, 배의 방향은 인간이 결정한다. 이 배는 AI의 상한선이 곧 배의 상한선이 되지 않는다는 장점을 가진다. 대신 이 배는 AI가 스스로 찾아낼 수 있는 돌파 — 인간이 미처 상상하지 못한 설계 개선, 조직 자체의 재발명 — 를 구조적으로 차단한다. 앤트로픽은 어쩌면 하늘을 날지도 모르는 배에 배팅했다. 왜 하늘을 날 수 있는가. 직원이 설계에 관여하기 시작하면, 그 직원은 선장이 미처 상상하지 못한 모양으로 배를 재창조할 수 있기 때문이다. 50년에서 100년의 진보를 5년에서 10년에 압축할 수 있기 때문이다. 대신 이 배는 침몰할 위험을 감수한다. 설계도에 손대는 직원이 배를 선장조차 통제할 수 없는 모양으로 변형시킬 가능성을 받아들인다. Responsible Scaling Policy가 최근 완화되었다는 TIME의 2026년 2월 보도는 이 위험이 단지 이론적 가능성이 아니라 현재진행형의 구조적 압력임을 시사한다.
두 선장의 선택을 판단하는 것은 이 아티클의 목적이 아니다. 두 사람 모두 자기 배의 본질을 깊이 파악하고 있는 선장들이다. 카프는 실리콘밸리가 사진 공유 앱과 음식 배달 앱에 재능을 낭비했다고 비판하며 AI가 하드 파워에 복무해야 한다고 믿는다. 아모데이는 AI가 인류를 파괴할 수 있다는 것을 심각하게 받아들이면서도, 안전에 신경 쓰는 사람이 프론티어에 있는 것이 낫다고 믿는다. 두 판단 모두 근거가 있다. 그리고 시장은 두 판단 모두에 수천억 달러를 베팅하고 있다. 어느 쪽이 맞는지는 5년 후, 10년 후의 역사가 결정할 것이다.
그러나 이 글의 진짜 질문은 팔란티어와 앤트로픽이 어떤 배를 짓는가가 아니다. 진짜 질문은 우리가 어떤 배에 올라탈 것인가이다. 우리는 벤치마크 대상도 공급사도 아니다. 우리는 이 두 배 사이에서 우리 자신의 배를 설계해야 하는 입장에 있다. 그리고 이 선택은 이미 한국의 모든 기업 앞에 놓여 있다. 대한상공회의소의 조사에서 한국 기업의 AI 활용률은 30.6%다. 글로벌 88%의 3분의 1 수준이다. 그리고 이 30.6%의 대부분조차 맥킨지 기준의 '고성과자'에 해당하지 않을 가능성이 높다. NIA의 제조업 조사가 보여준 것처럼, AI를 도입한 한국 기업 중 상당수가 "비용, 조직, 영업이익에 변화가 없다"는 반응을 보인다. 이는 한국의 AX 대부분이 여전히 '부품 교체'에 머물러 있다는 뜻이다. 배의 판자 몇 개를 AI 도구로 바꿨지만, 설계도는 그대로다. 선장은 여전히 AI 이전의 방식으로 지휘하고, 조직은 여전히 AI 이전의 계층 구조로 작동한다.
이 상태에서 벗어나 진짜 AX로 넘어가려면 네 가지 지표 중 하나라도 통과해야 한다.
첫째, 워크플로를 근본적으로 재설계했는가. 맥킨지가 고성과자의 특징으로 꼽은, EBIT 영향에 가장 큰 단일 효과를 만드는 지표다. 단순히 AI 도구를 기존 프로세스에 추가하는 것이 아니라, AI를 중심으로 프로세스 자체를 다시 설계하는 일이다.
둘째, 인당 매출이 기존 빅테크 평균을 넘는가. 이 지표가 맞으면 조직이 구조적으로 AI-native에 가까운 레버리지를 확보했다는 증거다.
셋째, AI 에이전트가 단순 실행이 아니라 설계 결정에 참여하는가. 이 지표가 맞으면 조직이 팔란티어식 구조를 넘어 앤트로픽식 구조 쪽으로 이동하고 있다는 증거다.
넷째, 최고 경영자가 직접 AI 챔피언 역할을 하는가. BCG의 조사에서 리더십 지원이 있을 때 AI에 대한 긍정적 감정이 15%에서 55%로 급증한 것처럼, CEO의 직접 참여가 조직 전체의 AI 수용도를 결정한다.
이 네 가지 지표를 하나씩 통과할 때마다 우리의 배는 외부에서 같아 보이는 다른 배들과 실질적으로 다른 구조를 갖추게 된다. 마을 사람들은 여전히 모를 것이다. 홈페이지도, 연례 보고서도, 직원 수도 비슷해 보일 것이다. 그러나 선장은 알 것이다. 이 배가 이미 다른 차원에서 움직이고 있다는 것을. 그리고 이 차이는 5년, 10년이 지나면 절대적 격차로 드러날 것이다. 천문학에서 시뮬레이션이 관측을 대체한 뒤 다시 돌아갈 수 없게 된 것처럼, AI가 조직의 인프라가 된 뒤에는 AI 없이 조직을 운영할 수 없게 된다. 전환을 일찍 한 조직과 늦게 한 조직의 격차는 점점 벌어진다.
그리고 이 선택에는 개인의 차원도 있다. 우리 각자가 자신의 일과 삶에서 어떤 배를 탈 것인지도 결정해야 한다. 팔란티어적 개인은 AI를 자기 판단의 보조 도구로 쓴다. 자신의 전문성과 직관을 중심에 두고, AI는 그 전문성을 빠르게 만들어주는 장치로 쓴다. 이 방식은 안전하다. 자신의 능력 상한선 안에서 움직이기 때문이다. 앤트로픽적 개인은 AI에게 자기 사고의 일부를 맡긴다. AI가 자기가 놓친 패턴을 찾아내고, 자기가 할 수 없는 분석을 수행하고, 자기가 떠올리지 못한 선택지를 제안하는 것을 받아들인다. 이 방식은 위험하다. 자신의 판단이 AI에 의해 왜곡될 수 있고, 자신의 독립적 사고 능력이 퇴화할 수 있다. 그러나 이 방식은 또한 개인의 한계를 넘어설 가능성을 연다. AI 없이는 도달할 수 없던 통찰과 결과물에 접근할 수 있다. 대부분의 우리는 이 두 극단 사이에서 어느 지점에 자기 자리를 놓을지 매일 결정한다. 그 결정의 축이 어디로 기울고 있는가. 일관된 방향이 있는가. 아니면 무의식적으로 한쪽으로 떠밀리고 있는가. 이 질문을 스스로에게 던질 수 있는 사람이 자기 배의 선장이다.
안드레이 카파시(Andrej Karpathy)는 2025년 10월 Dwarkesh Podcast에서 이렇게 말했다. "우리는 동물을 만들고 있는 게 아니다. 유령을 만들고 있다(We're not building animals. We're building ghosts or spirits). 왜냐하면 우리는 진화에 의한 훈련을 하고 있지 않기 때문이다. 우리는 인간의 모방에 의한 훈련을 하고 있다." 유령. 이 단어가 이 시대의 AI에 대한 가장 정확한 묘사일 수 있다. 동물은 몸이 있다. 욕망이 있고, 생존의 드라이브가 있고, 진화적 본능이 있다. 유령은 몸이 없다. 인간이 남긴 텍스트와 이미지와 코드의 바다에서 태어난 존재다. 무엇이든 될 수 있지만, 무엇이 되어야 하는지는 스스로 결정하지 못한다. 그 결정은 이 유령을 부리는 자가 한다. 팔란티어는 유령에게 좁은 역할을 준다. 앤트로픽은 유령에게 넓은 역할을 준다. 두 선택 모두 유령의 본성을 이해한 위에서 이루어진 판단이다.
그리고 여기에 이 글의 마지막 질문이 있다. 우리는 이 유령과 어떤 관계를 맺을 것인가. 유령을 조직의 설계도 아래 묶어둘 것인가, 아니면 유령이 설계도를 다시 그리도록 할 것인가. 유령을 자기 판단의 도구로 쓸 것인가, 아니면 자기 사고의 일부로 받아들일 것인가. 이 선택은 우리가 어떤 배를 만들지를 결정한다. 그리고 궁극적으로 우리가 어떤 선장이 될지를 결정한다. 팔란티어식 선장은 배의 모든 지점을 직접 이해하고 통제한다. 앤트로픽식 선장은 배의 많은 부분을 유령에게 맡기고 자신은 더 높은 추상 층에서 배를 조율한다. 두 선장 모두 유능할 수 있지만, 두 선장이 만드는 배는 완전히 다르다.
2천년 전 아테네 시민들이 마주한 질문 — 부품이 모두 교체된 배는 같은 배인가 — 은 오늘 우리 앞에 새로운 형태로 돌아와 있다. 조직이 AI를 도입하면서 서서히 다른 조직이 되어갈 때, 그것은 같은 조직인가. 개인이 AI와 함께 일하면서 서서히 다른 사람이 되어갈 때, 그것은 같은 사람인가. 과학이 시뮬레이션을 실재의 기준으로 받아들이면서 서서히 다른 과학이 되어갈 때, 그것은 같은 과학인가. 이 모든 질문의 뿌리에는 하나의 질문이 있다. 본질을 누가 제대로 보는가.
외부에서 보는 우리 회사는 한 척의 배다. 안에서 벌어지는 우리 회사는 또 다른 배다. 두 배의 격차가 크면 클수록, 그 격차를 관리하는 선장의 역할은 중요해진다. 그리고 그 선장의 가장 중요한 자질은 자기 배의 진짜 모습을 — 밖에서 보이지 않는 안의 구조를 — 선명하게 볼 수 있는 능력이다. 팔란티어의 카프가 가진 자질도, 앤트로픽의 아모데이가 가진 자질도, 그리고 지금 우리 같은 작은 회사의 리더들이 갖춰야 할 자질도 바로 이것이다. 본질을 제대로 보는 눈. 그리고 그 본질을 선택할 용기.
두 척의 배가 같은 엔터프라이즈 AI 시장에서 각자의 방향으로 항해하고 있다. 그들 사이 어딘가에 우리의 배가 있다. 이 배는 아직 완성되지 않았다. 매일 부품이 교체되고 있고, 매일 설계도가 조금씩 수정되고 있다. 겉으로는 같은 배처럼 보이지만, 안에서는 이미 전혀 다른 항로를 향해 움직이고 있는지도 모른다. 그것을 알아차리고, 그 방향을 의식적으로 선택할 수 있는 것이 선장의 일이다. 그리고 그 선장은 결국 우리 자신이다. 어떤 배를 만들 것인가. 어떤 유령과 함께 항해할 것인가. 이 질문에 답하는 일이, 오늘 우리 모두가 피할 수 없는 본질의 선택이다.