전력·그리드가 AI 승자를 가른다
GPU 군비경쟁의 끝: 전력·그리드가 AI 승자를 가른다
AI 경쟁의 본질이 바뀌고 있다. 그동안 시장은 누가 더 빠르고 강력한 칩을 확보하느냐에 집중해 왔다. GPU 성능이 곧 AI 경쟁력이라는 인식이 지배적이었고, 이 구도에서 엔비디아를 중심으로 한 GPU 생태계는 사실상 표준처럼 받아들여졌다. 그러나 최근 들어 이 전제가 흔들리고 있다. 이유는 단순하다. AI의 병목이 더 이상 칩 공급이 아니라, 그 칩을 실제로 돌릴 수 있는 전기와 전력망으로 이동하고 있기 때문이다.
이 문제를 가장 직설적으로 던진 인물이 바로 다. 그는 “엔비디아의 개발 로드맵은 사실상 전력소모 로드맵”이라고 표현하며, 현재 AI 하드웨어 혁신의 핵심이 연산 구조의 근본적 변화라기보다 “더 크고 뜨거운 실리콘을 전기와 냉각으로 버티게 만드는 것”에 가깝다고 지적했다. 이 발언의 요지는 엔비디아 비관론이 아니다. 오히려 AI 산업 전반의 가치 평가 기준이 바뀌고 있다는 경고에 가깝다.
AI 모델의 성능은 빠르게 좋아지고 있지만, 그 성능을 실제 서비스로 구현하기 위해 필요한 연산량은 그보다 더 빠른 속도로 늘고 있다. 효율이 개선되어도 설치되는 서버 수가 기하급수적으로 증가하면, 전체 전력 수요는 계속 커질 수밖에 없다. 이 지점에서 AI 경쟁은 자연스럽게 전기 경쟁으로 바뀐다. 누가 더 많은 GPU를 사느냐가 아니라, 누가 더 많은 전기를 안정적으로, 그리고 빠르게 확보할 수 있느냐가 승부를 가르는 조건이 된다.
이 논리가 곧바로 국가 간 비교로 이어진다. 버리가 문제 삼은 것은 미국과 중국의 전력 인프라 구조다. 중국은 2024년 말 기준 약 3.33.4TW 수준의 설치 발전용량을 보유한 것으로 집계된다. 반면 미국은 유틸리티 스케일 기준 약 1.21.3TW 수준이다. 단순한 수치 비교만 놓고 보면 중국이 2.5배 이상 큰 판을 갖고 있는 셈이다. 이 자체가 곧바로 AI 우위를 보장하지는 않지만, 전력 수요가 폭증하는 국면에서 흡수 여력이 더 크다는 점은 부인하기 어렵다.
하지만 진짜 차이는 발전소 숫자보다 그리드, 즉 송전과 계통 연계에서 더 자주 드러난다. 미국에서는 신규 발전·저장 프로젝트뿐 아니라 대형 전력 수요처인 데이터센터까지 계통 연계를 기다리는 대기열이 길게 늘어서 있다. 일부 분석에 따르면 미국의 인터커넥션 큐에 쌓인 프로젝트 규모는 이미 기존 설치용량을 훨씬 웃돈다. 이는 “전기를 만들 수 없는 상황”이 아니라, “전기는 있는데 연결하지 못하는 상황”이 구조적으로 발생하고 있다는 뜻이다.
이 문제는 데이터센터에서 특히 치명적이다. 국제에너지기구, 즉 는 전력망 혼잡과 연계 지연으로 인해 전 세계 데이터센터 프로젝트의 약 20%가 가동 지연 위험에 노출돼 있다고 경고한 바 있다. 선진국 기준으로 신규 송전선 건설에 4~8년이 걸릴 수 있다는 점을 감안하면, AI 수요 증가 속도를 그리드 확장이 따라가지 못하는 구간이 나타나는 것은 자연스러운 결과다.
이런 환경에서는 AI 인프라의 평가 기준이 달라질 수밖에 없다. 과거에는 최대 연산 성능과 서버 수가 곧 경쟁력이었다면, 이제는 그 연산을 얼마나 안정적으로 가동할 수 있는지가 더 중요해진다. 전력 연결이 확정되지 않은 데이터센터는 최신 GPU와 서버를 갖추고 있어도 실제로는 현금흐름을 만들지 못한다. 오히려 이자와 감가상각만 쌓이는 ‘가동률 리스크 자산’이 될 가능성이 커진다.
이 지점에서 GPU 중심 구조의 한계가 드러난다. GPU는 범용성과 유연성 면에서 여전히 강력하지만, 전력 제약이 심해질수록 시장은 성능 대비 전력 효율, 즉 성능/와트를 더 엄격하게 따지게 된다. 특정 워크로드에 최적화된 AI 전용 ASIC이 다시 주목받는 이유다. 이는 GPU를 완전히 대체한다는 의미가 아니다. 현실적인 시나리오는 GPU와 ASIC이 혼합된 구조다. 개발과 실험, 범용 연산에는 GPU를 쓰고, 대규모 반복 추론과 상시 가동 영역에는 전력 효율이 높은 ASIC을 배치하는 방식이다.
이 변화는 엔비디아 같은 기업에도 양면적인 의미를 갖는다. 단기적으로는 GPU 수요가 계속 강할 수 있지만, 장기적으로는 “절대 성능”만으로 프리미엄을 유지하기 어려워질 수 있다. 반대로 전력 효율과 시스템 단위 최적화, 그리고 소프트웨어 생태계를 결합한 기업은 새로운 해자를 만들 여지도 있다. 결국 관건은 칩 하나가 아니라, 전력·냉각·그리드까지 포함한 전체 시스템을 얼마나 효율적으로 설계하느냐다.
버리의 경고를 가장 단순하게 정리하면 이렇다. AI 경쟁은 더 이상 칩만의 문제가 아니다. 전기를 확보하지 못하면 AI도 없다. 그리고 전기를 빠르게 연결하지 못하는 구조라면, 아무리 많은 자본을 쏟아부어도 성과는 지연된다. GPU 군비경쟁의 시대가 끝나가고, 전력과 그리드가 AI 승자를 가르는 국면이 서서히 열리고 있다. 이 변화는 이미 시작됐고, 이제 시장은 그 현실을 가격에 반영하기 시작하고 있다.