젠슨 황의 CES 메시지를 한 줄로 요약하면 이렇습니다. “오픈 모델과 에이전트의 시대가 왔다.” 그리고 그 선언은 기술 유행어가 아니라, 엔비디아의 수익 구조를 더 단단하게 만드는 방식으로 설계돼 있습니다.
시장은 종종 엔비디아를 “GPU 회사”로 줄여 부릅니다. 하지만 이번 CES에서의 엔비디아는, GPU를 전면에 내세우기보다 표준(standard)을 장악하는 플랫폼 회사로 자신을 다시 정의했습니다. 오픈 모델, 라우팅(오케스트레이션), 시뮬레이션, 그리고 차세대 컴퓨팅(루빈)까지 — 서로 다른 조각들이 사실은 하나의 문장으로 이어집니다.
“AI를 ‘돌리는 법’이 아니라, AI가 ‘세상에 스며드는 방식’을 설계하겠다.”
엔비디아가 공개한 흐름의 핵심은 “모델 판매”가 아닙니다. 오픈 모델을 산업의 기본값으로 만들고, 그 모델을 굴리기 위한 연산 인프라를 팔겠다는 전략입니다. 엔비디아는 2025년 말부터 Nemotron 3 계열을 “오픈 모델”로 전면 배치했고, 멀티에이전트/추론에 최적화된 효율을 강조했습니다.
여기서 중요한 포인트는, 오픈 모델이 ‘무료’라서 위협이 되는 게 아니라 무료이기 때문에 더 빨리 표준이 될 수 있다는 점입니다. 표준이 되면 무슨 일이 벌어질까요?
개발자는 그 모델을 기준으로 앱과 워크플로를 설계합니다.
기업은 그 모델이 요구하는 추론/보안/지연시간 조건에 맞춰 인프라를 재편합니다.
그리고 그 인프라의 “사실상 기본값”은 여전히 엔비디아 GPU, CUDA-X, 네트워킹, 시스템 통합으로 귀결됩니다.
팔란티어가 상징적입니다. 팔란티어는 자사 플랫폼(Foundry/AIP) 안에서 NVIDIA Nemotron 오픈 모델과 CUDA-X 가속 컴퓨팅을 결합하는 협업을 공식화했습니다. “모델이 스택에 들어간다”는 말은, 단순 탑재가 아니라 기업 운영 프로세스의 인터페이스가 엔비디아 방식으로 굳어질 수 있다는 뜻입니다.
CES 데모에서 반복해서 등장한 단어는 “에이전트”였지만, 투자 관점에서 더 중요한 키워드는 라우팅(오케스트레이션)입니다. 한 개의 초거대 모델이 모든 일을 하는 시대가 아니라, 업무를 쪼개고 최적 모델을 골라 붙이는 시대가 오면, 가치는 “모델”보다 “운영 체계”로 이동합니다.
이를 가장 이해하기 쉽게 보여준 것이 DGX Spark + Reachy Mini 데모였습니다. 책상 위 작은 로봇이 카메라·음성·문서 업무를 수행하는 장면은 귀엽지만, 엔비디아의 진짜 의도는 따로 있습니다.
추론 모델(Nemotron 3 Nano)
비전 모델(Nemotron Nano 2 VL)
음성(TTS)
그리고 이들을 상황에 따라 선택·연결하는 라우터
이 조합이 “개인 비서”를 만들고, 개인 데이터는 로컬에서 처리하는 시나리오가 제시됩니다.
여기서 DGX Spark의 포지션이 선명해집니다. DGX Spark는 “이름만” 책상 위 컴퓨터가 아닙니다. 엔비디아가 공식적으로도 **‘Previously Project DIGITS’**라고 밝힌 것처럼, 개인/팀 단위에서 프라이버시와 지연시간을 이유로 온프레미스 추론을 해야 하는 수요를 정조준한 장치입니다. (GB10 Grace Blackwell 기반, 128GB 통합 메모리, 최대 200B 파라미터급 로컬 추론 등)
즉, 에이전트 시대의 엔비디아는 이렇게 말하고 있습니다.
“모델은 열어둘게요. 대신 현실에서 굴러가게 만드는 풀스택은 우리가 잡겠습니다.”
이번 CES에서 물리 AI(Physical AI)는 더 이상 데모용 구호가 아니었습니다. 엔비디아는 Cosmos(월드 파운데이션 모델), 그리고 자율주행용 오픈 모델 패밀리 Alpamayo를 전면에 올렸습니다.
Alpamayo의 투자 포인트는 “엔비디아가 자율주행을 이긴다/진다”가 아닙니다. 엔비디아 스스로 Alpamayo를 차에 바로 넣는 런타임 모델이 아니라 ‘교사(teacher) 모델’로 설명합니다. 즉, 업계가 각자 자기 데이터로 미세조정·증류해 쓰도록 설계된 오픈 생태계의 중심축입니다.
그리고 이 생태계의 비용 구조는 ‘실도로 데이터’보다 시뮬레이션에서 얼마나 빨리 검증하고 반복하느냐로 기울 수밖에 없습니다. 엔비디아가 제공하는 것은 모델만이 아니라, 시뮬레이션(AlpaSim)과 데이터까지 포함한 패키지라는 점이 중요합니다.
CES 현장에선 Alpamayo가 메르세데스-벤츠 CLA에 적용되는 로드맵도 언급됐습니다. 시장은 이런 발표를 “언제 되느냐”로만 묻기 쉬운데, 투자자는 그보다 “어떤 공급망이 굳어지느냐”를 봐야 합니다. 한 번 설계·검증·운영 툴체인이 자리 잡으면, 바꾸는 비용이 급격히 커지기 때문입니다.
젠슨 황이 로봇을 이야기하다가 Cadence, Synopsys를 끌어온 장면은 우연이 아닙니다. “로봇은 공장에서 태어난다”가 아니라, 더 정확히는 로봇은 설계·검증·시뮬레이션 툴 안에서 먼저 태어난다는 선언입니다.
엔비디아는 Synopsys와의 협업을 “정밀·속도·비용” 관점의 설계/시뮬레이션 혁신으로 공식화했고, GPU 가속이 엔지니어링 워크플로 깊숙이 들어가려는 흐름이 확인됩니다.
여기서 투자 포인트는 TAM(시장 크기) 확장보다 더 현실적입니다. 데이터센터 → 자율주행/로봇 → 제조·설계 툴로 이어지는 길은, 엔비디아가 매번 같은 방식으로 승부해왔던 전장입니다.
“연산을 더 쓰게 만들고, 그 연산이 엔비디아 방식으로 돌아가게 한다.”
CES의 하드웨어 정점은 Vera Rubin 플랫폼이었습니다. 엔비디아는 루빈을 “6개의 칩이 하나의 AI 슈퍼컴퓨터를 이룬다”고 설명하며, 훈련 성능(Blackwell 대비 5배)과 함께 토큰 비용(token cost) 절감을 강하게 밀었습니다.
숫자 자체보다 중요한 해석은 이겁니다.
AI는 이제 “모델이 얼마나 똑똑하냐”를 넘어, 얼마나 싸게, 얼마나 많이 토큰을 뽑아내느냐의 산업이 되어가고 있습니다. 엔비디아가 토큰 비용을 전면에 내세운 건, GPU가 단순 부품이 아니라 AI 서비스의 원가 구조를 좌우하는 레버임을 시장에 재확인시키는 행위입니다.
정리하면, 이번 CES는 “새 제품 발표”라기보다 엔비디아가 다음 수요를 어떻게 설계하는지를 보여준 자리였습니다. 앞으로는 아래 네 가지를 점검하는 쪽이 더 실전적입니다.
오픈 모델의 ‘표준화 속도’: Nemotron이 기업 워크플로의 기본값으로 굳어지는가(팔란티어 같은 스택 내 확산).
온프레미스/엣지 추론의 확산: DGX Spark가 “데모용”이 아니라 실제 구매·배치로 이어지는가.
물리 AI의 상업적 착지: Alpamayo/시뮬레이션 툴체인이 파트너 생태계에서 반복 사용되는가.
비(非)데이터센터 구간의 잠금효과: 설계/제조 툴(EDA·디지털 트윈)로 GPU 가속이 깊게 들어가며 전환비용을 키우는가.
엔비디아의 오픈 모델 전략은, 수익을 포기하는 결정이 아닙니다. 수익이 발생하는 위치를 더 아래(인프라 원가)로 끌고 내려오는 전략입니다. 모델은 열어 생태계를 넓히고, 라우터로 운영을 장악하고, 시뮬레이션으로 물리 세계를 끌어들이고, 루빈으로 토큰 경제의 원가를 다시 쓰겠다 — 이번 CES의 모든 문장은 이 논리로 연결됩니다.
투자에서 가장 위험한 착각은, “좋은 기술 = 좋은 주식”이라고 믿는 것입니다. 더 중요한 질문은 늘 하나입니다.
이 기술이, 누군가의 예산을 ‘반복적으로’ 엔비디아 쪽으로 흐르게 만드는가?
이번 CES에서 엔비디아는 그 질문에 꽤 정교한 설계도로 답했습니다.
(본 글은 정보 제공이며 투자 판단의 책임은 독자 본인에게 있습니다.)