하이퍼스케일러의 기술 투자는 크게 R&D와 CapEx두 축으로 나뉘며, 최근 AI 경쟁이 심화됨에 따라 소프트웨어와 하드웨어의 비중 변화가 뚜렷하게 나타나고 있다.
1. R&D(연구개발비) 지출 : 소프트웨어 중심
R&D 지출은 전통적으로 소프트웨어(인력 및 알고리즘 개발) 비중이 압도적으로 높다.
비중 : 약 70%가 소프트웨어 및 서비스 관련이며, 나머지 30%가 하드웨어 설계 및 프로토타입 제작에 투입된다.
주요 항목 : 대규모 언어 모델(LLM) 학습 알고리즘 개발, 클라우드 아키텍처 소프트웨어 최적화, 그리고 이를 수행하는 고액 연봉의 엔지니어 인건비가 대부분을 차지한다.
변화 : 최근에는 구글의 TPU나 MS의 Maia 등 자체 AI 가속기(In-house Silicon) 설계 비중이 늘어나면서 R&D 내 하드웨어 설계 비용이 과거보다 소폭 상승하는 추세이다.
2. CapEx(자본지출) : 하드웨어 중심
실질적인 하드웨어 구매는 R&D가 아닌 CapEx 항목에서 일어납니다.
현재 하이퍼스케일러들의 투자라고 하면 보통 이 부분을 의미한다.
비중 : CapEx 내에서는 하드웨어 및 인프라 비중이 80% 이상이다.
지출 현황 : 2026년 기준 Big 4의 합계 CapEx는 약 6,500억 달러로 예상되며, 이 중 약 75%($4,500억 달러)가 GPU, 서버, 데이터센터 건설 등 AI 인프라(하드웨어)에 집중되어 있다.
주요 트렌드를 분석해 보면 다음과 같다.
칩 내재화 (Silicon R&D) : 애플, 구글, 아마존, 마이크로소프트 모두 자체 칩을 설계하고 있다.
R&D 단계에서 소프트웨어 설계 역량이 필요하지만, 결과적으로 하드웨어 종속성을 줄이기 위한 투자다.
인력 비용 : 하이퍼스케일러 R&D의 핵심은 여전히 AI 전문 인력이다.
고급 소프트웨어 엔지니어링 인력 확보를 위한 비용이 R&D의 가장 큰 부분을 차지하고 있다.
하드웨어 가속 : 과거에는 범용 서버 위주의 투자였다면, 현재는 전체 하드웨어 지출의 절반 이상이 AI 특화 하드웨어(고성능 GPU 및 NPU)에 집중되고 있다.
결론적으로, 기술을 만드는(R&D) 비용은 여전히 소프트웨어와 인력이 중심이지만, 그 기술을 돌리기 위한 인프라를 갖추는(CapEx) 비용은 하드웨어가 압도적이다.
특히 하이퍼스케일러 3사(Amazon, Microsoft, Google)에게 칩 내재화는 단순한 기술 과시를 넘어 생존과 직결된 경제적 해자(Moat)를 구축하는 과정이다.
현재, 이 경쟁은 실험 단계를 지나 본격적인 대체 단계로 진입했다.
1. 칩 내재화의 3대 핵심 이유
비용 절감 : 엔비디아 GPU의 마진율은 약 80%에 달한다. 자체 칩을 쓰면 칩당 비용을 30~40% 이상 절감할 수 있다.
공급망 독립 : 엔비디아에 의존하면 데이터센터 확장 속도가 제한된다. 자체 칩은 이 병목현상을 해결한다.
수직 계열화 최적화 : 자사의 특정 AI 모델에 딱 맞는 하드웨어를 설계하여 효율을 극대화한다.
2. 3 사별 내재화 현황 및 경쟁력
① Google : 가장 앞선 선두주자 (TPU 시리즈)
구글은 2015년부터 TPU(Tensor Processing Unit)를 개발해 온 이 분야의 베테랑이다.
핵심 칩 : TPU v7 (Ironwood)
경쟁력 : 구글은 이미 자사 AI 모델인 Gemini 학습의 상당 부분을 TPU로 소화한다.
2026년 초 출시된 TPU v7은 대규모 언어 모델(LLM)과 혼합 전문가 모델(MoE)에 최적화되어 엔비디아의 최신 칩과 대등한 성능을 보이고 있다.
특이점 : 최근에는 자체 CPU인 Axion(엑시온)까지 클라우드에 본격 도입하며 인텔/AMD 의존도까지 낮추고 있다.
② Amazon (AWS) : 압도적 가성비와 생태계
AWS는 가성비를 무기로 클라우드 고객들에게 자체 칩 사용을 유도하고 있다.
핵심 칩 : Trainium 3 (학습용), Inferentia 3 (추론용)
경쟁력 : 26년 초 발표된 Trainium 3는 기존 GPU 대비 AI 모델 구축 비용을 약 40% 절감하는 것을 목표로 한다.
앤스로픽(Anthropic) 같은 대형 파트너사가 AWS 칩을 적극 활용하며 성능을 검증하고 있다.
특이점 : 이스라엘의 안나푸르나 랩(Annapurna Labs) 인수를 통해 축적된 설계 역량이 가장 탄탄하다는 평가를 받다.
③ Microsoft : 뒤늦은 추격, 무서운 속도
MS는 오픈 AI와의 협력을 바탕으로 소프트웨어 최적화에 강점을 둔다.
핵심 칩 : Maia 200 (AI 가속기), Cobalt 100 (CPU)
경쟁력 : 2026년 들어 Maia 200을 글로벌 데이터센터에 전면 배치하기 시작했다.
주로 Azure 클라우드에서 돌아가는 챗GPT(ChatGPT)의 추론 비용을 낮추는 데 집중하고 있다.
특이점 : 엔비디아와의 협력 관계를 유지하면서도, 내부적으로는 실리콘 재균형(Silicon Rebalance) 전략을 통해 엔비디아 비중을 점진적으로 줄이고 있다.
3. 경쟁 구도 요약
구글은 TPU v7 (Ironwood)을 주력으로 10년 이상의 설계 노하우와 자사 모델 최적화를 하고 있다.
아마존은 Trainium3/Inferentia3을 주력으로 클라우드 시장 점유율 기반의 높은 가성비를 보인다.
MS는 Maia 200 / Cobalt 100을 주력으로 OpenAI와의 강력한 소프트웨어 연합을 보인다.
한 줄 요약 : 현재 학습(Training)은 엔비디아로, 추론(Inference)은 자체 칩 전략을 취하고 있다.
엔비디아 시장 점유율은 소폭 하락할 것으로 보이며, 빈자리를 3사의 자체 칩이 채워나가고 있다.
특히 추론 시장에서는 자체 칩 비중이 늘어날 전망이다.