NVIDIA를 이기려는 자들

보이지 않는 전쟁 제6회

by 조종주

NVIDIA를 이기려는 자들

보이지 않는 전쟁 제6회


NVIDIA가 AI 가속기 시장의 80% 이상을 지배한다면, 나머지 20%는 누가 차지하고 있을까요. 그리고 왜 그 20%가 점점 커지고 있을까요.

5회까지 우리는 공급 측의 전쟁을 다뤘습니다. HBM을 누가 만드는가, 중국은 따라잡을 수 있는가. 이번 회부터 시선을 수요 측으로 옮깁니다. AI 칩을 누가 사용하고, 누가 직접 만들기 시작했는가.

2회에서 살펴본 GPU(그래픽 처리 장치)는 CUDA라는 20년 생태계와 압도적 성능으로 AI의 왕좌에 앉아 있습니다. 그러나 왕좌에 도전하는 자들이 있습니다. AMD, Google, Meta, AWS, OpenAI — 이들은 저마다 다른 전략으로 NVIDIA의 독점에 균열을 내고 있습니다.


AMD — 개방 생태계로 승부하다

가장 직접적인 도전자는 AMD입니다. NVIDIA의 GPU와 같은 범주의 칩으로 정면 승부를 겁니다.

AMD는 CES 2026에서 차세대 Helios 랙 시스템을 공개했습니다. Instinct MI455X GPU 72개를 하나의 랙에 넣어, FP4 기준 2.9 exaFLOPS의 성능과 31TB의 HBM4를 탑재합니다.[6-1] NVIDIA Vera Rubin이 576GB의 HBM4를 제공하는 데 비해, AMD MI455X 단일 GPU는 432GB를 제공합니다. 메모리 용량에서는 AMD가 앞섭니다.[6-2]

생태계도 확장하고 있습니다. OpenAI는 AMD와 6기가와트 규모의 다년 계약을 체결하여, 2026년 하반기부터 1기가와트 데이터센터에 MI450 칩을 배치할 계획입니다.[6-3] Oracle은 50,000개의 MI450 GPU를 활용한 AI 슈퍼클러스터를 구축합니다.[6-4] Meta는 AMD와 1,000억 달러 규모의 장기 계약을 맺었으며, 이 계약에는 AMD 지분 10%를 포함하는 전략적 파트너십이 포함되어 있습니다.[6-5]

그러나 AMD의 약점은 여전히 소프트웨어입니다. NVIDIA의 CUDA 생태계에 비해 AMD의 ROCm은 성숙도가 부족합니다. 2회에서 언급했듯이, 실제 벤치마크에서 NVIDIA가 훈련 워크로드에서 여전히 2~3배의 성능 우위를 보이는 것은 하드웨어가 아니라 소프트웨어 때문입니다. AMD가 하드웨어 스펙에서 앞서도, 개발자들이 CUDA를 떠나지 않으면 시장 점유율은 제한적입니다.


빅테크 — 자체 칩의 경제학

더 근본적인 도전은 "직접 만들겠다"는 빅테크 기업들에서 옵니다.

Google은 가장 오래되고 강력한 자체 칩 프로그램을 운영하고 있습니다. 2013년부터 자체 TPU(Tensor Processing Unit)를 개발해 온 Google은 2026년에 7세대 TPU v7 "Ironwood"를 대량 생산합니다. 3nm 공정에 192GB HBM3E를 탑재한 Ironwood는 NVIDIA Blackwell과 비교해 동등 수준의 연산 성능을 달성하면서, 총소유비용(TCO)은 약 44% 더 낮습니다.[6-6] Google은 2026년에 수백만 개의 TPU를 생산할 계획이며, 처음으로 외부 판매도 시작했습니다. Anthropic은 100만 개 이상의 TPU 접근권을 확보했고, 이 중 첫 40만 개의 Ironwood 완성 랙 공급 계약은 약 210억 달러 규모입니다.[6-7]

Meta는 MTIA(Meta Training and Inference Accelerator)를 자체 개발하고 있습니다. 4세대인 MTIA v4 "Santa Barbara"는 HBM4를 탑재한 최초의 Meta 자체 칩으로, 2026년 말 샘플링에 들어갑니다.[6-8] Meta는 30억 명의 사용자에게 Llama 모델을 서비스하는 막대한 추론 수요를 MTIA로 처리하고, 훈련에는 여전히 NVIDIA GPU를 사용하는 이중 전략을 구사합니다.[6-9]

AWS는 Trainium 시리즈로 추론과 훈련 양쪽을 겨냥합니다. Microsoft는 자체 Maia 200 가속기를 개발 중이며, OpenAI는 Broadcom과 파트너십을 맺고 2029년까지 10기가와트 규모의 커스텀 추론 칩을 배치할 계획입니다.[6-10]

이 모든 기업이 자체 칩을 만드는 이유는 세 가지로 요약됩니다. 첫째, 비용입니다. NVIDIA GPU의 총이익률은 88%에 달합니다(2회 참조). 자체 칩을 만들면 이 마진의 상당 부분을 절약할 수 있습니다. 둘째, 공급 안정성입니다. NVIDIA 한 회사에 의존하면 공급 부족 시 사업이 멈춥니다. 셋째, 맞춤 최적화입니다. 범용 GPU가 아니라, 자사 모델에 딱 맞는 칩을 만들면 에너지 효율과 성능을 동시에 높일 수 있습니다.


ASIC이라는 새로운 전선


06회_시각자료_NVIDIA도전자들.png [이미지: NVIDIA 도전자들 비교 — AMD, Google TPU, Meta MTIA, AWS Trainium]


Google의 TPU, Meta의 MTIA, AWS의 Trainium — 이들은 모두 **ASIC(Application-Specific Integrated Circuit)**입니다. 특정 용도에 최적화된 맞춤 칩이라는 뜻입니다. NVIDIA의 GPU가 "범용 만능 선수"라면, ASIC은 "한 가지를 극단적으로 잘하는 전문가"입니다.

이 ASIC의 폭발적 성장이 HBM 시장의 구조를 바꾸고 있습니다. Goldman Sachs에 따르면, 2026년 GPU용 HBM 수요는 전년 대비 23% 성장하지만, ASIC용 HBM 수요는 82% 폭증할 것으로 전망됩니다.[6-11] ASIC이 HBM 시장의 새로운 성장 엔진이 되고 있는 것입니다.

이 ASIC 시장의 중심에 Broadcom이 있습니다. Google TPU의 핵심 설계를 담당하고, Meta MTIA를 공급하며, OpenAI의 커스텀 칩 프로젝트를 이끌고 있습니다. Broadcom의 2026년 AI 관련 매출은 약 460억 달러로, 전년 대비 134% 증가할 전망입니다.[6-12] Marvell은 커스텀 ASIC 시장의 약 20%를 차지하며 2위를 달리고 있지만, Broadcom과의 격차는 큽니다.[6-13]

Introl의 분석에 따르면, 2026년 AI 가속기 시장은 구조적으로 분기하고 있습니다. 범용 GPU는 훈련 시장에서 여전히 지배적이지만, 추론 시장에서는 커스텀 ASIC이 빠르게 점유율을 높이고 있습니다. 현재 AI 컴퓨팅의 약 3분의 2가 추론 워크로드이며, 이 비중은 에이전틱 AI의 확산과 함께 더 커질 것입니다.[6-14]


왕좌는 흔들리는가

결론부터 말하면, NVIDIA의 왕좌는 당분간 흔들리지 않습니다. 그러나 왕좌 옆에 의자가 하나둘 놓이고 있습니다.

Silicon Analysts의 분석대로, NVIDIA의 매출 기준 점유율은 2024년 87%에서 2026년 약 75%로 하락할 전망이지만, 절대 매출은 계속 증가합니다.[6-15] 시장 자체가 너무 빠르게 커지면서, NVIDIA가 약해지는 것이 아니라 ASIC이 확장분을 가져가는 구조입니다.

이 변화가 한국 메모리 기업에게 의미하는 바는 분명합니다. NVIDIA에만 HBM을 공급하던 구조에서, Google TPU·Meta MTIA·AMD MI400·AWS Trainium 등 다양한 고객에게 공급하는 구조로 전환됩니다. 4회에서 삼성이 Google TPU HBM3E의 60% 이상을 공급한다고 한 것이 바로 이 흐름의 사례입니다. NVIDIA 의존도가 높다는 SK하이닉스의 과제도, 이 다변화 속에서 해법을 찾을 수 있습니다.

GPU의 왕좌 옆에 ASIC이라는 의자가 놓이고 있습니다. 이것은 HBM 시장의 축소가 아니라, 구조적 확장입니다.


데이터센터에서 벌어지는 이 전쟁은 거대한 규모의 이야기입니다. 수조 원의 투자, 수십만 개의 칩, 수백 메가와트의 전력. 그런데 같은 시간, 훨씬 작은 규모에서 또 다른 전쟁이 벌어지고 있습니다. 당신의 주머니 속 스마트폰 안에서.


1. 이 글은 『보이지 않는 전쟁 — AI 반도체, 누가 미래를 지배하는가』 연재의 6회입니다. 매주 화·수·금 발행됩니다.

2. 이 글은 필자가 주 2회 발행하는 브런치 매거진 'AI 트렌드 리포트'의 기획기사로 12회에 걸쳐 연재할 예정입니다.


참고 자료

Tom's Hardware, "AMD touts Instinct MI430X, MI440X, and MI455X AI accelerators", 2026년 1월 6일.

Introl, "Custom Silicon Inflection 2026", 2026년 2월 23일.

SemiAnalysis, "Google TPUv7: The 900lb Gorilla In the Room", 2025년 11월 28일.

Broadcom, Q1 FY2026 Earnings, 2026년 3월 6일.


각주

[6-1] Tom's Hardware, "AMD touts MI430X, MI440X, and MI455X at CES", 2026년 1월 6일. Helios 랙: MI455X 72개, HBM4 31TB, FP4 2.9 exaFLOPS.

[6-2] AMD 공식 블로그, "AMD Helios — AI Rack Built on Meta's 2025 OCP Design", 2025년 10월. MI450 단일 GPU 432GB HBM4, 19.6TB/s 대역폭. NVIDIA Vera Rubin Superchip은 576GB이지만 이는 2개 GPU 합산.

[6-3] DCD, "AMD unveils full MI400 product lineup", 2026년 1월. "OpenAI partnering with AMD for 6GW-worth of GPUs, deal expected to kick off in H2 2026."

[6-4] Tom's Hardware, "AMD and Oracle partner to deploy 50,000 MI450 Instinct GPUs", 2025년 10월.

[6-5] Tom's Hardware, "Inside Meta and AMD's $100 billion deal", 2025년. Meta-AMD 1,000억 달러 계약, 지분 10% 포함.

[6-6] SemiAnalysis, "Google TPUv7: The 900lb Gorilla In the Room", 2025년 11월. "All-in TCO per Ironwood chip for the full 3D Torus configuration being ~44% lower than the TCO of a GB200 server."

[6-7] SemiAnalysis, 위 기사. Anthropic 첫 40만 TPU v7 계약 약 $100억(완성 랙 기준 $210억). Broadcom Q1 2026 Earnings(2026.3.6)에서 $210억 주문 확인.

[6-8] Introl, "Custom Silicon Inflection 2026", 2026년 2월. "MTIA v4 'Santa Barbara': Sampling in late 2026, the first Meta chip to incorporate HBM4 memory."

[6-9] Introl, 위 기사. "Meta also remains one of NVIDIA's largest GPU customers, purchasing H100 and B200 systems for training workloads, illustrating the split between training (NVIDIA) and inference (custom)."

[6-10] Introl, 위 기사. "OpenAI partnered with Broadcom to design a custom inference ASIC, with a planned 10GW of deployed capacity by 2029."

[6-11] TrendForce, "HBM Demand from ASICs to Surge 80% in 2026", 2025년 7월. Goldman Sachs: GPU용 HBM 23% 성장 vs ASIC용 82% 성장.

[6-12] FinancialContent, "Broadcom's Custom AI Silicon Boom", 2026년 2월. "AI-related revenue projected to hit $46 billion in 2026—a 134% year-over-year increase."

[6-13] FinancialContent, "Broadcom Q1 2026 Earnings", 2026년 3월 6일. "Marvell is fighting for a 20% share of the custom ASIC market."

[6-14] Introl, 위 기사. "Custom ASICs grow at 44.6% CAGR, targeting the inference workloads that now represent two-thirds of all AI compute."

[6-15] Silicon Analysts, "NVIDIA GPU Market Share 2024–2026", 2026년 2월. "Revenue share peaked near 87% in 2024 and is projected to decline to 75% by 2026."

화, 수, 금 연재
이전 05화중국은 벽을 넘을 수 있는가