brunch
매거진 AI

2-3. GPU를 장악한 거인들

클라우드 빅3의 AI 인프라 전쟁

by 유비관우자앙비

AI는 인간의 뇌처럼 사고하지만, 그 뇌를 움직이게 하는 것은 클라우드 인프라입니다. 이제 마이크로소프트, 아마존, 구글은 단순한 IT 기업이 아닙니다. 이들은 AI 문명의 전력망이자 순환계를 지배하는 제국으로 성장했습니다. 2024년 기준, 전 세계 데이터센터 전력 소비의 약 45%는 AI 워크로드에서 발생하고 있습니다. AI의 연산 능력은 GPU의 수로 결정되며, 이 GPU들은 모두 클라우드 위에서 작동합니다. AI의 중심은 더 이상 연구소나 실험실이 아닙니다. 전 세계를 잇는 거대한 데이터센터 네트워크가 바로 그 심장입니다.


1️⃣ AI 학습의 전선 — 클라우드의 재정의

GPT-4 하나를 학습시키기 위해서는 3만 개가 넘는 GPU, 수주간의 연산, 그리고 수천만 달러의 전력이 필요합니다. AI의 핵심 자원은 세 가지로 요약할 수 있습니다.

데이터(Data) — 연료

GPU(Chip) — 엔진

클라우드(Infra) — 도로

즉, 클라우드는 더 이상 단순한 저장 공간이 아니라 AI의 공장으로 자리 잡았습니다. OpenAI, Anthropic, DeepMind, xAI 등 모든 주요 AI 기업들은 이미 연구의 중심을 클라우드로 옮겼습니다. AI 산업의 경쟁 구도는 이제 이렇게 요약됩니다.


“누가 더 많은 GPU를, 더 효율적으로 연결할 수 있는가.”


2️⃣ Microsoft Azure — OpenAI 동맹의 선제타격

AI 클라우드 전쟁의 첫 승자는 마이크로소프트였습니다. 2019년, 마이크로소프트는 OpenAI에 130억 달러를 투자하며 독점적 인프라 파트너로서의 지위를 확보했습니다. 현재 GPT-4, DALL·E, Codex 등 OpenAI의 모든 모델은 Azure 슈퍼컴퓨터 위에서 학습되고 있습니다.

Azure OpenAI Service: GPT API를 기업용 클라우드 환경에 안전하게 통합

Microsoft 365 Copilot: 2024년 11월 기준, 40만 개 이상의 기업 계정에서 사용 중

GitHub Copilot: 전 세계 180만 명 이상의 개발자가 사용하는 AI 코딩 어시스턴트

Azure는 단순한 클라우드가 아니라, AI를 일상의 인터페이스로 끌어올린 문명형 플랫폼으로 진화했습니다.


“AI는 소프트웨어의 새로운 인터페이스입니다.” — 사티아 나델라


3️⃣ Amazon AWS — 모델 쇼핑몰의 전략

AI 모델 경쟁에서는 다소 늦었지만, AI 인프라 경쟁에서 여전히 세계 1위는 아마존입니다. 2024년 현재, AWS의 글로벌 클라우드 시장 점유율은 31%에 이릅니다. AWS는 AI의 자유시장 전략을 택했습니다.

Amazon Bedrock: OpenAI, Anthropic, Cohere, Stability 등 다양한 모델을 하나의 API에서 선택·실행

Anthropic 투자: 40억 달러를 투입해 Claude 모델의 공식 인프라 파트너로 등극

Trainium & Inferentia: 자체 AI 칩 개발을 통해 엔비디아 의존도를 낮춤

AI 스타트업 생태계: Runway, Hugging Face, Replit 등 주요 생성형 AI 기업이 AWS GPU 인프라를 기반으로 성장


“모든 기업은 AI 기업이 될 것입니다. 우리는 그들에게 전력을 공급하는 발전소가 되겠습니다.” — 아담 셀립스키 (AWS CEO)


AWS는 AI를 직접 만들지 않습니다. 대신, AI가 태어날 수 있는 모든 환경을 판매합니다. 이 전략은 개방성과 확장성을 동시에 확보한, 플랫폼형 AI 경제의 전범(典範)으로 평가받고 있습니다.


4️⃣ Google Cloud — 기술 명가의 반격

AI 기술의 근원은 여전히 구글에 있습니다. Transformer, BERT, Diffusion—all Google Research의 산물입니다. 2024년, 구글은 Gemini 1.5 Pro를 공개하며 멀티모달 AI의 새로운 기준을 세웠습니다.

TPU v5e: 엔비디아 H100 대비 30% 효율 향상

Vertex AI: 기업이 자체 데이터를 활용해 Gemini를 맞춤형으로 학습 가능

Gemini in Workspace: Gmail, 슬라이드, 시트에 내장된 AI 비서

“우리는 AI를 만드는 회사가 아니라,
AI를 세상에 배포하는 회사입니다.” — 선다 피차이 (Sundar Pichai)

그의 리더십 아래 구글은 ‘기술의 회사’에서 ‘플랫폼의 회사’로 진화했습니다. 피차이는 “AI는 인터넷보다 더 근본적인 변화가 될 것”이라고 선언하며, AI를 누구나 쉽게 접근하고 사용할 수 있도록 하는 ‘AI의 민주화’를 추진했습니다.


그 철학은 곧 책임 있는 AI(Responsible AI)로 이어졌습니다. Gemini 프로젝트는 단순한 모델 경쟁이 아니라, AI가 인간의 의사결정·정보 접근·창의적 생산에 미치는 영향을 지속적으로 평가하고 개선하는 실험장이 되고 있습니다. 구글은 여전히 AI 기술의 원천이자 운영체계이며, AI 경제의 두뇌 역할을 맡고 있습니다.


5️⃣ 중국 AI 클라우드 제국 — 알리바바를 중심으로 한 ‘제3의 패권’

AI 산업을 논할 때 중국은 더 이상 ‘후발주자’가 아닙니다. 미국의 반도체 제재에도 불구하고, 중국은 데이터, 인재, 인프라, 내수 시장 모든 면에서 세계 최대의 규모를 기반으로 독자적인 AI 생태계를 형성했습니다. 이 중심에는 알리바바 클라우드(Alibaba Cloud, 阿里云)가 있습니다.


알리바바 클라우드 — 중국 AI 경제의 심장

알리바바 클라우드는 2009년 설립 이후, 현재 아시아·태평양 시장 점유율 1위, 전 세계 클라우드 시장 점유율 4위를 차지하고 있습니다. 2024년 기준 클라우드 부문 매출은 약 150억 달러(약 20조 원)에 달하며, 이는 중국 내수 클라우드 시장의 절반 이상을 차지합니다. 알리바바는 AI 모델, 반도체, 애플리케이션까지 수직 통합된 AI 종합 인프라 기업으로 진화했습니다.


대규모 언어 모델 Qwen 2.5 (通义千问): GPT-4 수준의 성능으로 평가받으며, 중국 공공기관·금융기관·교육기관 등에서 대규모 채택 중입니다. 특히 “중국어 기반 AI”라는 점이 강력한 경쟁 우위를 제공합니다.

ModelScope 플랫폼: 중국판 Hugging Face로 불리며, 200만 명 이상의 개발자가 오픈소스 모델을 공유하고 있습니다. 이는 폐쇄적인 AI 생태계를 벗어나, “중국 내부의 개방형 AI 허브” 역할을 수행합니다.

AI 칩 ‘T-Head’ 시리즈: 미국의 엔비디아 제재에 대응하기 위해 자체 AI 반도체 부문을 강화했습니다. ‘Hanguang 800’ 칩은 BERT 학습 속도를 15배 가속시키며, 알리바바 클라우드 내에서 자사 LLM 훈련에 이미 활용 중입니다.

Cloud Intelligence Group 상장 추진 (2025): 알리바바는 AI 인프라·칩·모델 사업을 통합한 클라우드 지주회사를 분리 상장할 예정입니다. 이는 중국 정부가 ‘AI 인프라를 국가 자산으로 인정’하고 있음을 의미합니다.


텐센트(Tencent Cloud) — 소셜+AI의 결합

텐센트는 AI를 “소셜 그래프 기반 인텔리전스”로 접근하고 있습니다. WeChat(위챗), QQ, 텐센트 비디오 등 방대한 사용자 네트워크 데이터를 기반으로 AI 추천·음성·번역·광고 최적화를 진행합니다.


Tencent Hunyuan (混元大模型): 2023년 말 공개된 자사 초거대 모델로, 중국 내 금융·헬스케어·교육 등 50여 개 산업에 API로 제공 중입니다. 특히 위챗 미니프로그램과 자연스럽게 통합되어, “AI 챗봇의 생활화”를 주도하고 있습니다.

산업형 클라우드 서비스: 제조·물류·공공 부문에서 디지털 트윈과 AI 시뮬레이션 기능을 제공하며, 중국형 “AI+산업 혁신”의 중심축으로 성장하고 있습니다.


바이두(Baidu) — 중국의 ‘AI 연구소형’ 거인

바이두는 검색엔진에서 출발했지만, 지금은 중국 AI 기술력의 ‘뇌’ 역할을 하는 기업입니다.

ERNIE 4.0 (文心大模型): 바이두의 초거대 언어 모델로, 중국 정부 인증을 받은 ‘상업용 LLM 1호’ 모델입니다. 중국 내 AI 스타트업과 정부기관이 공식적으로 사용할 수 있는 유일한 상용 모델이기도 합니다.

Apollo 자율주행 플랫폼: 이미 베이징·상하이·선전에 완전 자율주행 택시를 상용화했으며, 클라우드-AI-차량 통합 인프라 구조를 완성했습니다. (즉, “AI가 도로 위에서도 작동하는” 구조를 현실화했습니다.)


중국 클라우드의 전략 — 내수, 규제, 그리고 자립

중국의 AI 클라우드는 세 가지 특징으로 요약됩니다.

내수 중심 전략: 14억 명의 데이터, 5억 대 이상의 스마트폰, 그리고 1만 개 이상의 공공기관에서 발생하는 AI 학습 데이터를 자국 내에서 완전 통제하고 있습니다. (이 점에서 중국은 “데이터 주권”의 완성형 국가입니다.)

정부 주도형 인프라 투자: 중국 정부는 ‘AI New Infrastructure(新基建)’ 정책을 통해 데이터센터·GPU·광통신망을 국가 단위로 확충하고 있습니다. 이는 AI를 단순한 산업이 아니라 국가 안보 자산으로 간주하기 때문입니다.

기술 자립(Self-Reliance): 미국 제재 이후, 알리바바·화웨이·바이두는 각각 반도체·클라우드·AI 모델을 자체 개발하며 ‘서구 의존형 인프라’에서 ‘내부 순환형 생태계’로 전환했습니다.


중국이 만든 AI 질서의 또 다른 의미

미국의 AI는 “클라우드 중심의 개방형 생태계”라면, 중국의 AI는 “데이터 중심의 폐쇄형 생태계”입니다. 하지만 그 폐쇄성은 동시에 통제력과 속도를 보장합니다. 중국의 AI 생태계는

구글의 기술력,

마이크로소프트의 인프라,

아마존의 상업화 구조를

한꺼번에 흡수한 국가 단위의 종합 AI 체제로 진화하고 있습니다.


결론 — 알리바바는 ‘중국판 마이크로소프트’, 그러나 더 거대하다

알리바바는 더 이상 단순한 전자상거래 기업이 아닙니다. 그들은 AI 칩을 만들고, AI 모델을 운영하며, AI 인프라를 국가 단위로 배포하는 “AI 문명의 허브”가 되었습니다.

“데이터는 중국의 석유이며, 클라우드는 그 정제소다.” —
중국 공업정보화부(MIIT) AI 전략 백서 중

AI 패권의 1막이 ‘GPU의 전쟁’이었다면, 2막은 ‘데이터와 주권의 전쟁’입니다. 그 무대의 중심에는, 알리바바를 비롯한 중국의 클라우드 제국들이 서 있습니다. 특히 알리바바는 “데이터는 중국의 것, 인프라는 세계의 것”이라는 전략을 내세우며 자국 내 데이터를 학습한 AI를 아시아 전역의 산업 클라우드에 확산시키고 있습니다. 미국 중심의 AI 패권 질서에 균열을 내는 대표적인 사례입니다.


6️⃣ 한국 클라우드 — 데이터 주권의 최전선

한국은 세계에서 가장 빠른 속도로 AI 인프라를 확장하고 있습니다. 2024년, 국내 AI 데이터센터 투자 규모는 7조 원을 넘어섰습니다.

네이버클라우드: 하이퍼클로바X를 중심으로 국산 초거대 AI 인프라를 구축하고 있으며, 금융·공공기관 CSP로 시장을 확장 중입니다.

카카오클라우드: 카카오워크·i 클라우드를 중심으로 음성·대화형 AI 기반 SaaS 생태계를 확장하며, 중소기업용 AI 도입 솔루션을 강화하고 있습니다.

NHN클라우드: 공공·교육·게임 산업에 최적화된 맞춤형 클라우드 플랫폼으로, 정부 인증 기반의 B2B·B2G 서비스에 집중하고 있습니다.

KT클라우드: 공공·국방 중심의 ‘소버린 AI’ 인프라를 구축하며, 데이터 주권 확보를 위한 AI 데이터센터를 전국 단위로 확장하고 있습니다.

삼성SDS·LG CNS: Azure·AWS 등 글로벌 하이퍼스케일러를 통합 관리하는 MSP(Managed Service Provider)로 진화 중입니다.

한국은 이제 AI 기술을 단순히 ‘도입’하는 국가가 아니라, AI를 운영·관리·유통하는 인프라 강국으로 재편되고 있습니다. (좀 긍정적으로 본다면)


7️⃣ 클라우드의 미래 — GaaS에서 AaaS로

지금은 GPU-as-a-Service(GaaS), 즉 GPU를 빌려 쓰는 시대입니다. 기업들은 필요할 때만 연산 자원을 빌리고, AI 모델을 학습시키며, 효율적으로 인프라를 공유합니다. 그러나 이 구조는 곧 AI-as-a-ervice(AaaS),

즉 AI 자체가 서비스가 되는 시대로 진화하고 있습니다.


1단계 — GaaS (GPU as a Service): 연산력의 시대

현재 클라우드 시장의 핵심은 GPU 자원의 효율적 임대입니다. 마이크로소프트·아마존·구글은 GPU 팜을 구축하고, 기업들은 이를 시간 단위로 구매합니다. 이는 20세기 전기 산업의 발전소 모델과 유사합니다 — “누가 더 안정적으로 전력을 공급할 수 있는가.” GPU는 이제 새로운 전기이며, 클라우드는 그 전력을 분배하는 송전망입니다.


2단계 — MaaS (Model as a Service): 지능의 표준화

다음 단계는 모델이 인프라가 되는 단계입니다. 즉, 특정 기업이 자체적으로 모델을 개발하지 않아도 클라우드 플랫폼에 탑재된 모델을 바로 호출해 사용할 수 있는 구조입니다.

AWS Bedrock은 OpenAI·Anthropic·Cohere 등 다양한 모델을 한 인터페이스로 제공합니다.

Azure OpenAI Service는 GPT-4, DALL·E, Codex를 기업 환경에 통합합니다.

Google Vertex AI는 Gemini 기반 모델을 기업 데이터에 맞게 커스터마이징합니다.

이는 “AI의 유통망이 클라우드가 되는 시대”를 의미합니다. AI는 더 이상 기업이 ‘개발’해야 하는 것이 아니라, 클라우드에서 ‘임대’받는 자원이 되고 있습니다.


3단계 — AaaS (AI as a Service): 지능의 자동화

이제 AI는 연산력이나 모델이 아니라, 완전한 ‘지능 서비스’로서 제공되는 단계에 진입하고 있습니다.

Microsoft Copilot은 오피스 전반에 내장되어 문서, 회의, 이메일을 대신 처리합니다.

Amazon Q는 기업 내부 데이터를 학습해, 맞춤형 업무 조언을 제공합니다.

Google Gemini Agent는 업무 자동화·검색·코드 작성·콘텐츠 생성까지 하나로 통합합니다.

AI는 더 이상 단일 기능이 아니라, 클라우드 상에서 스스로 작동하는 디지털 노동력으로 진화하고 있습니다. 기업은 이제 사람을 고용하듯 AI를 ‘임대’합니다.


4단계 — NaaS (Network as a Service): AI들의 연결

가장 중요한 미래는 AI들이 서로 연결되는 순간입니다. 각 기업이 보유한 AI 모델과 에이전트가 상호작용하며 하나의 AI 네트워크 경제(AI Network Economy)를 형성하게 됩니다.


예를 들어, 한 기업의 판매 에이전트가 다른 기업의 물류 AI와 자동으로 협업하고, 회계 AI가 실시간으로 전자결제를 처리하며, 법률 AI가 계약서를 자동 검수하는 구조입니다. 이 모든 과정이 클라우드 네트워크 상에서 자율적으로 이뤄지게 될 것입니다. 즉, AI가 AI와 거래하는 세상이 열립니다.


5단계 — ZaaS (Zero-Touch as a Service): 완전 자동화된 인프라

최종 단계는 무인형 클라우드입니다. AI가 스스로 서버를 관리하고, 트래픽을 분산하고, 냉각 시스템을 제어하며, 보안 패치를 수행합니다. 현재 마이크로소프트와 구글은 AI가 클라우드 자체를 최적화하는 Self-Managed Cloud 기술을 개발 중이며, 이는 향후 인프라 운영의 자동화를 넘어, 클라우드 자체가 자기 학습형 시스템으로 진화함을 의미합니다.


클라우드의 미래, 문명의 인프라로

이 모든 흐름을 종합하면, 클라우드는 이제 지능의 하드웨어이자 사회의 신경망이 되고 있습니다. AI가 사람의 생각을 대신한다면, 클라우드는 그 생각이 흐르는 통신로입니다. 20세기의 산업은 석유 위에 세워졌지만,

21세기의 산업은 데이터와 연산 위에 세워질 것입니다.


클라우드는 더 이상 기술 인프라가 아닙니다. 그것은 경제, 노동, 지식, 에너지, 안보가 교차하는 문명 인프라입니다. 결국, 클라우드의 미래는 ‘지능의 유통망’으로 진화합니다. GPU로 시작된 AI 인프라의 경쟁은 AI 모델 → 에이전트 → 네트워크 → 문명 인프라로 확장되고 있습니다. 그리고 그 중심에는 여전히 Azure, AWS, Google Cloud, Alibaba, Naver, Tencent 같은 AI 문명의 새로운 국경선이 존재합니다.



8️⃣ 클라우드의 그늘 — 전력, 화재, 그리고 열의 문명

AI 데이터센터는 눈에 보이지 않는 거대한 도시입니다. 그 도시는 전기를 먹고 자라며, 열을 내뿜습니다.

GPT-4 학습: 약 1.3GW 전력 소모 (서울시 하루 소비량의 약 4%)

구글 데이터센터: 연간 물 사용량 14억 리터

마이크로소프트: 2024년 전력 소비 19TWh (핀란드 산업용 전력 수준)


ㄴ 2023년 프랑스 OVH 화재

ㄴ 2024년 판교 데이터센터 정전

ㄴ 2024년 암스테르담 전력 제한 사태

AI 데이터센터는 이제 물리적 리스크의 상징이 되었습니다. 이에 따라 주요 빅테크들은 액침 냉각(Immersion Cooling), 심해 냉각(Undersea Data Centers), AI 기반 열 제어 시스템 등을 도입하며 대응하고 있습니다. “AI가 세상을 뜨겁게 만들고 있습니다.”는 말은 비유가 아니라 물리적 사실입니다. AI 산업의 미래는 알고리즘의 정교함보다 전력 인프라의 용량과 효율성이 결정하게 될 것입니다.


9️⃣ 리셀러와 MSP의 부상 — AI 인프라의 제2 공급망

하이퍼스케일러(AWS·Azure·GCP)가 ‘발전소’라면, 그 아래에는 ‘배전 사업자’—리셀러와 MSP들이 존재합니다.

Bespin Global: 멀티클라우드 MSP, 2024년 매출 1.3조 원, 중동 진출

Megazone Cloud: 국내 1위, 8,000개 기업의 클라우드 관리

NTT Data·Rackspace·Accenture: 글로벌 MSP, AI 통합 관리 시장 선점

이 산업의 본질은 단순합니다. AI를 직접 만들지 않아도, 인프라를 통해 수익을 창출하는 구조입니다.

GPU, API, 데이터 전송—all 유통 가능한 상품이 되었기 때문입니다. AI 클라우드는 이제 “하이퍼스케일러 위 — MSP 아래”의 다층 생태계로 재편되었습니다. AI의 가치는 모델이 아니라, 인프라 운영의 효율성에서 발생합니다.


결론 — 하늘 위의 공장, AI 문명의 심장

TSMC가 AI의 심장을 만든다면, Azure·AWS·GCP는 그 심장을 뛰게 하는 혈관입니다. 그리고 수많은 리셀러와 MSP들은 그 혈관에 산소를 공급하는 모세혈관입니다. AI 산업은 기술의 진화를 넘어, 지능이 물리적 인프라로 확장되는 과정입니다.


20세기는 석유를 가진 자가 세상을 지배했다면, 21세기는 GPU와 클라우드를 가진 자가 문명을 지배합니다. AI 패권은 단순한 기술 경쟁이 아닙니다. 이제 그것은 전력, 냉각, 연결, 그리고 사람의 지능을 모두 아우르는 새로운 문명 경쟁으로 확장되었습니다.


➡️ 다음 편 예고

다음 4부에서는 AI 산업의 두 축, 데이터와 에너지를 중심으로 “AI의 연료와 전력: 데이터 주권과 에너지 대격변”을 다룰 예정입니다.


keyword
매거진의 이전글2-2. 칩 전쟁의 승자와 패자