보이지 않는 전쟁 제9회
1,000와트. NVIDIA Blackwell GPU 한 개의 소비전력입니다. 일반 가정용 에어컨 한 대와 맞먹습니다. 이 GPU 8개를 탑재한 서버 한 대가 약 10킬로와트를 소비하고, 이런 서버 수천 대가 빼곡히 채워진 AI 데이터센터 한 곳이 수십에서 수백 메가와트의 전력을 삼킵니다. 중소 도시 하나가 쓰는 전력입니다.
국제에너지기구(IEA)에 따르면, 전 세계 데이터센터의 연간 전력 소비는 2024년 약 460TWh(테라와트시)였습니다. 이 수치는 2030년까지 약 945TWh로 두 배 이상 늘어날 전망입니다. 미국만 보면, 2026년 데이터센터가 전체 전력 소비의 약 6%를 차지할 것으로 추정됩니다. 그리고 이 증가분의 90%가 AI에서 옵니다.
8회까지 우리는 칩 안의 전쟁을 이야기했습니다. GPU, LPU, 엣지 AI 칩, HBM. 하지만 이 모든 칩을 돌리려면 전기가 있어야 합니다. 그리고 전기가, 지금 AI의 가장 현실적인 병목이 되고 있습니다.
GPU의 소비전력은 세대마다 가파르게 올라왔습니다. NVIDIA의 V100(2017년)은 약 300와트였습니다. A100(2020년)이 400와트, H100(2022년)이 700와트, 그리고 Blackwell B200(2024년)이 1,000와트를 넘었습니다. 2026년 출시되는 Vera Rubin NVL72 랙 하나의 총 전력은 킬로와트 단위가 아닌 메가와트 단위에 진입합니다.
V100의 300와트에서 B200의 1,000와트까지, 7년간 GPU의 소비전력은 3배 이상 증가했습니다. 같은 기간 와트당 연산 성능은 크게 향상되었지만, 모델의 크기와 사용자 수가 더 빠르게 늘어나면서 전체 전력 수요는 계속 상승하고 있습니다.
빅테크 기업들의 대응은 그 자체로 위기의 규모를 보여줍니다. 2026년 한 해에 미국 5대 빅테크가 데이터센터에 투자하는 자본 지출은 3,200억 달러를 넘어섰습니다. 이는 미국 전력 산업 전체의 발전·송전·배전 투자액의 두 배에 달합니다. 마이크로소프트와 아마존은 원전 인접 부지에 데이터센터를 건설하고, 구글은 소형 모듈 원자로(SMR) 기업에 투자하고 있습니다. 전기를 확보하기 위한 경쟁이 칩을 확보하기 위한 경쟁만큼 치열해진 것입니다.
칩이 전기를 먹으면 열이 납니다. 그 열을 식히는 것이 냉각입니다. 냉각 시스템은 데이터센터 전체 전력의 30~40%를 차지하며, 냉각 효율은 전체 에너지 효율을 좌우합니다.
전통적인 공랭(Air Cooling)은 찬 공기를 불어넣어 서버를 식히는 방식입니다. 랙당 5~15킬로와트 수준에서는 이것으로 충분했습니다. 하지만 AI 서버 랙이 40~100킬로와트를 넘어서면서 공기만으로는 감당이 안 됩니다.
그래서 등장한 것이 액냉(Liquid Cooling)입니다. 냉각수를 서버 뒷면의 열교환기에 직접 통과시키는 '리어도어(Rear-door)' 방식에서 시작해, 칩에 직접 냉각판을 접촉시키는 '직접 액냉(Direct Liquid Cooling)', 그리고 서버 전체를 비전도성 냉각액에 담그는 '액침 냉각(Immersion Cooling)'까지 진화하고 있습니다. NVIDIA의 Vera Rubin NVL72 랙은 처음부터 액냉을 기본 설계로 채택했습니다.
냉각 효율을 나타내는 지표인 PUE(Power Usage Effectiveness)를 보면, 공냉 기반 시설의 PUE는 1.4~1.6, 직접 액냉은 1.10~1.15입니다. PUE 1.5인 시설은 PUE 1.1인 시설보다 같은 연산을 수행하는 데 36%나 더 많은 전기를 낭비합니다. GTC 2026에서 마이크론이 발표한 Gen6 SSD도 액냉에 최적화된 설계를 채택했습니다. 냉각은 더 이상 부수적 장치가 아니라, 데이터센터의 핵심 설계 요소가 되었습니다.
전력 문제의 해법이 칩 바깥에만 있는 것은 아닙니다. 이 연재의 핵심 주제인 HBM이 전력 효율에서도 중요한 역할을 합니다.
HBM은 메모리를 수직으로 쌓아 대역폭을 극적으로 높인 기술입니다(3회 참조). 그런데 이 구조가 전력 효율에도 유리합니다. 같은 양의 데이터를 이동시킬 때, HBM은 기존 DDR5 메모리보다 훨씬 적은 전력을 소비합니다. 데이터가 이동하는 물리적 거리가 짧고, 병렬 채널이 넓기 때문입니다.
Micron은 GTC 2026에서 HBM4가 HBM3E 대비 전력 효율을 20% 이상 개선했다고 발표했습니다. 단순히 대역폭이 넓어진 것만이 아니라, 같은 대역폭을 더 적은 전력으로 제공한다는 의미입니다. 메모리의 전력 효율이 높아지면 GPU의 유휴 시간이 줄고, 시스템 전체의 에너지 효율이 올라갑니다. "고속도로 차선 수"(3회에서 대역폭의 비유)가 넓어질 뿐 아니라, 각 차선의 연비도 좋아지는 셈입니다.
전력 효율 개선은 HBM 세대 교체의 또 다른 강력한 동기입니다. 데이터센터 운영자에게 와트당 성능은 절대적인 지표입니다. HBM4로의 전환은 성능 향상이면서 동시에 전력 절감이기도 합니다.
전력 소비의 증가는 필연적으로 환경 문제를 동반합니다. AI의 탄소 발자국은 이미 국제적 논쟁의 대상입니다.
아일랜드에서는 데이터센터가 국가 전체 전력의 약 21%를 소비하며, 2026년에는 32%까지 높아질 수 있다는 전망이 나왔습니다. 미국 버지니아주에서는 데이터센터가 주 전력의 26%를 차지합니다. EU는 데이터센터의 에너지 소비를 규제하기 위한 프레임워크를 마련하고 있으며, 미국에서는 2026년 국정연설에서 데이터센터 전력 비용 문제가 공식 의제로 등장했습니다.
역설적인 점이 있습니다. AI는 기후 문제를 풀 수 있는 강력한 도구이기도 합니다. 에너지 효율 최적화, 날씨 예측, 탄소 포집 기술의 발전에 AI가 기여하고 있습니다. 하지만 AI를 구동하는 인프라 자체가 막대한 에너지를 소비합니다. "AI가 기후 문제를 풀 수도 있지만, AI 자체가 기후 문제일 수도 있다"는 양면성입니다.
한편, 전력 위기와 나란히 진행되는 것이 메모리 가격의 연쇄 상승입니다. HBM 생산에 최첨단 설비와 인력이 집중되면서, 범용 서버 DRAM의 공급이 줄어들고 있습니다. 범용 DRAM 가격의 급격한 상승은 AI 인프라 비용만의 문제가 아니라, 일반 소비자의 노트북과 스마트폰 가격에도 영향을 미치는 사회적 파급 효과를 낳고 있습니다.
전력 문제는 기술만으로 해결되지 않습니다. 반도체의 전력 효율은 개선되고 있지만, AI의 수요는 그보다 빠르게 증가하고 있습니다. 칩 안의 전쟁만큼이나, 칩 밖의 전쟁 — 전력 확보, 냉각 혁신, 탄소 규제 — 이 AI 반도체 전쟁의 향방을 결정할 것입니다.
전력, 냉각, 메모리 — 오늘의 벽들은 높습니다. 하지만 반도체 업계는 이미 2028년의 답을 설계하고 있습니다. NVIDIA가 GTC 2026 마지막 날에 공개한 코드명 Feynman. 이 이름 안에 담긴 세 가지 혁신이 있습니다.
IEA, "Energy and AI — Energy demand from AI", 2025년.
Deloitte, "As generative AI asks for more power, data centers seek cleaner energy solutions", 2025년 12월.
Micron, GTC 2026 IR 발표, 2026년 3월 16일.
Shield Operations, "AI Data Center Power Consumption: The True Cost", 2026년 2월.
1. 이 글은 『보이지 않는 전쟁 — AI 반도체, 누가 미래를 지배하는가』 연재의 9회입니다. 매주 화·수·금 발행됩니다.
2. 이 글은 필자가 주 2회(월,목) 발행하는 브런치 매거진 'AI 트렌드 리포트'의 기획기사로 12회에 걸쳐 연재할 예정입니다.