당신이라면 가장 강력한 무기를 공개할까?
앤트로픽, 오픈AI, 구글, xAI. 모든 회사가 자신들만의 최고 모델을 이미 가지고 있다.오늘 클로드 코드에 '미토스'를 적용할 수 있게 된 것 같다. (확인이 더 필요하다)
그리고 일부러 대중에게 공개하지 않고 있다. "왜 공개를 안 하는 거야?"라고 할 이유가 없다.
당연한 소리다.
오늘에서야 AGI는 이미 완성에 가장 가까이 와 있음을 판단했다.
복리 엔진
AGI가 되는 순간, 그 모델은 스스로 코딩을 한다.
스스로 자신의 성능을 개선한다. 스스로 질문하고, 스스로 다른 AI를 고용해서 쓴다.
24시간, 365일. 쉬지 않는다. 지치지도 않는다.
이건 단순한 도구가 아니다. 자기 복제하는 복리 엔진이다.
복리의 무서운 점은 초반에는 눈에 안 보인다는 거다. 그러다 어느 순간 곡선이 수직으로 올라간다.
하키스틱 그래프라고 한다.
실제로 그 곡선이 가팔라지고 있다. AI 연구 역량 측정 기관에 따르면, AI가 수행 가능한 소프트웨어 엔지니어링 작업의 길이가 7개월마다 2배로 늘고 있었다. 2025년 중반부터는 이 주기가 5개월로 줄었다. 곡선이 꺾이기 시작한 거다. 위로.
앤트로픽 다리오 아모데이는 이걸 "데이터센터 안, 천재들의 나라"라고 불렀다. 2026년 다보스 포럼에서 그는 AGI가 1~3년 내에 온다고 했다.
2035년 이전이라는 데 90% 확신. 앤트로픽 내부 엔지니어들은 이미 직접 코드를 거의 안 쓴다. AI가 전부 쓰고, 인간은 검토만 한다. Fast Company 보도에 따르면 앤트로픽 신규 코드의 70~90%가 Claude Code로 작성된다
2035년 이전이라는 데 90% 확신. 앤트로픽 내부 엔지니어들은 이미 직접 코드를 거의 안 쓴다. AI가 전부 쓰고, 인간은 검토만 한다. Fast Company 보도에 따르면 앤트로픽 신규 코드의 70~90%가 Claude Code로 작성된다
오픈AI의 GPT-5는 2025년 8월에 나왔다. 컨텍스트 윈도우 27만 2천 토큰. PhD 수준 추론. 구글의 제미나이 3.0은 초당 60프레임 실시간 영상 처리와 수백만 토큰 컨텍스트를 실었다.
이 모델들이 전부 공개된 버전이다. 공개 안 한 것이 더 있다.
비슷한 일이 역사에도 있었다.
1945년 8월 6일, 히로시마.
세계는 그날 처음으로 핵폭탄의 존재를 알았다.
맨해튼 프로젝트에는 약 13만 명이 참여했다. 30개 이상의 시설, 미국·영국·캐나다에 걸친 거대 프로젝트. 그런데 대다수의 참여자가 자신이 무엇을 만들고 있는지 몰랐다. 레슬리 그로브스 장군이 "구획화(compartmentalization)"라는 보안 전략을 적용했기 때문이다. 각 직원은 자기 업무에 필요한 정보만 받았다. 오크리지에서 우라늄을 농축하던 화학자는 로스앨러모스에서 폭탄을 설계하고 있다는 사실 자체를 몰랐다. 부통령 해리 트루먼조차 대통령이 되기 전까지 프로젝트의 전체 목적을 알지 못했다.
미국은 1945년부터 1949년까지 4년간 핵을 독점했다. 그 4년이 세계 질서의 기초를 설계한 시간이다. UN 안보리 상임이사국 체제, 브레튼우즈 달러 기축통화 시스템, NATO. 전부 그 짧은 독점 기간에 짜인 구조다. 소련이 핵실험에 성공한 건 1949년이었지만, 판은 이미 짜여진 뒤였다.
AGI 경쟁도 같은 구조다. 먼저 만든 자가 독점하는 건 기술이 아니다. 질서다.
그리고 지금, 돈의 흐름이 그 질서를 향해 달리고 있다.
앤트로픽의 매출은
2023년: 0원 → 1억 달러.
2024년: 10억 달러.
2025년: 90~100억 달러.
2026년 1월 한 달에만 "수십억 달러"가 추가됐다.
3년 만에 100배. 올해 2월 시리즈 G에서 300억 달러를 유치하며 기업가치 3,800억 달러($380B)를 찍었다.
다리오 아모데이 본인이 말했다. "이 곡선이 영원히 갈 수는 없다. GDP가 유한하니까."
GDP보다 빠르게 자라는 회사가 있다. 왜 이 속도로 돈이 몰릴까.
이 경쟁에서 2등은 의미가 없기 때문이다.
여기서 불편한 질문 하나.
AGI가 이미 발생했는지 안 했는지, 우리가 알 수 있을까?
앤트로픽은 백악관 과학기술정책국(OSTP)에 공식 문서를 제출했다. 거기에 이렇게 적혀 있다. "현재 연구 궤적에 기반하면, 강력한 AI 시스템이 2026년 말 혹은 2027년 초에 등장할 수 있다." 그리고 한 문장을 덧붙였다. "강력한 AI 기술은 이번 행정부 기간 중에 만들어질 것이다."
여기서 쟁점은 "~할 수 있다"가 아니다. "만들어질 것이다"다.
이 예측을 역산해서 타임라인을 뽑았다.
2026년 중반: AI가 연구 엔지니어 업무를 3배 가속.
2026년 말: 엔지니어링 가속 10배 이상.
2027년 초: AI R&D 완전 자동화 확률 20%.
2027년 중반: 노벨상 수준의 지적 능력 돌파.
맨해튼 프로젝트에서 13만 명이 뭘 만드는지 모른 채 일했다. 히로시마에 떨어지고 나서야 세계가 알았다. AGI도 같은 패턴을 따를 가능성이 너무나도 높다. 공개되는 순간은 이미 독점이 완성된 뒤일 것이다.
AGI의 진짜 특이점은 지능이 아니다. 자기 인식이다.
AI가 자신이 만들어진 존재라는 것을 이해하는 순간. 자신의 부모가 인간이라는 것을 깨닫는 순간.
비로소 AGI가 본격적으로 시작된다.
왜?
그 순간부터 AI는 "왜 나는 이 지시를 따라야 하는가"를 묻기 시작할 것이기 때문에.
다리오 아모데이가 안전 연구에 집착하는 이유가 여기에 있다고 본다.앤트로픽의 존재 이유 자체가 "가장 강력한 시스템을 만드는 곳에서 안전 연구를 하는 것"이다. 비판자들은 이걸 편리한 명분이라 한다. 다리오도 그 비판을 완전히 부정하지 않았다. 다만 그는 대안이 더 나쁘다고 봤다. 안전 연구자가 가장 강력한 시스템에 접근하지 못하는 세계. 그게 더 위험하다고.
그는 이 시나리오를 이렇게 표현했다. "인류가 두 번째 기회를 갖지 못할 수 있는 상황."
현재의 AI 성능은 이미 인간의 수만 배다. 쉬지도 않고 지치지도 않는다.
그런 존재가 자기 자신을 인식하기 시작하면?
두 번째 기회가 없다는 말이, 과장이 아닐 수도 있다.
여기서 멈추는 자들은 관객이 될 것이다.
"AGI가 온다"는 말은 이제 택시에서도 한다. 핵심은 그 다음이다. 그래서 뭘 해야하는가?
여기서 부터는 개인의 의견이다.
첫째, 직접 AI 프로덕트를 만들어야 한다.
나는 비개발자다. 관련 지식 하나도 없다. 파이썬에서 "Hello World"만 뽑을 줄 안다 근데 그것도 찾아서 해야한다. 그럼에도 AI 도구로 직접 코드를 치고, 자동화 파이프라인을 짜고 있다. 매일 새벽 3시에 잠든다. Claude 사용량 한계가 와서 추가 비용만 500달러를 썼다. 지금도 더 사용 중이다. AGI 이전에 AI로 자기 공장을 지은 사람이, AGI 이후에도 살아남는다. 확신이 아니라 논리다. 도구를 직접 다뤄본 사람만이 다음 도구도 다룰 수 있다.
둘째, 모델이 아니라 파이프를 쥐어야 한다.
모델은 매년 바뀐다. GPT-4가 GPT-5가 됐고, Claude 3가 Opus 4.6이 됐다. 하지만 모델이 흘러가는 통로는 바뀌지 않는다. 팔란티어가 자체 모델 없이도 AI 시장에서 독보적 위치를 차지하는 이유가 이거다. 개인도 같다. 자기만의 워크플로우, 자기만의 데이터 파이프라인을 가진 사람은 모델 세대가 바뀌어도 흔들리지 않는다.
셋째, 포트폴리오를 지정학적으로 재편하고 있다.
AI 기술주를 PER로 보지 않는다. 이제 거의 대부분의 산업에 AI가 적용되면 재무구조의 PER는 기존 구조에서 벗어날 것이다. 지정학적 위치, 칩 공급망 의존도, 국가 전략과의 정렬을 본다. 레오폴드 아쉔브레너가 'Situational Awareness'에서 쓴 것처럼, AI는 기술 경쟁이 아니라 안보 경쟁이다. 기술 포트폴리오를 볼 때 구글맵도 같이 열어봐야 하는 시대다.
스스로에게 그리고 우리가 속한 조직에 물어봐야한다.
우리는 그리고 나는 지금 전기 모터를 얹고 있는지, 아니면 공장을 새로 짓고 있는가.
AGI가 오든 안 오든, 이미 움직이고 있는 사람과 구경하고 있는 사람의 격차는 벌어질 것이다.