AI는 전기를 태운다
우리는 이미 AI 시대로 진입했습니다. AI거품론에 대한 얘기가 나오기도 하지만 AI와 인간은 함께 살아가야 할 것은 분명해 보입니다. AI는 더 이상 실험적 기술도, 일부 기업의 전략 자산도 아닙니다. 검색, 번역, 콘텐츠 생성, 제조, 금융, 의료까지... AI는 산업 전반의 의사결정과 생산 구조를 재편하는 핵심 인프라가 되고 있습니다. 이제 경쟁의 기준은 단순해 보입니다. 누가 더 똑똑한 모델을 만들었는가가 아니라 누가 더 많은 연산을 안정적으로 수행할 수 있는가 입니다. 그리고 이 지점에서, AI의 가장 현실적인 한계가 나타나고 있습니다. 바로 '전력(Electricity)'입니다.
최근 엔비디아는 OpenAI와의 전략적 파트너십을 통해 차세대 AI 인프라 구축을 위해 최소 10GW(기가와트) 규모의 AI 시스템을 배치하겠다고 공식 발표했습니다. 엔비디아의 보도자료에는 다음과 같은 문장이 명시돼 있습니다.
NVIDIA intends to build and deploy at least 10 gigawatts of NVIDIA systems for OpenAI’s next-generation AI infrastructure.
이 문장은 단순한 투자 계획이 아니며 AI 데이터센터가 소비할 전력 규모 자체가 ‘도시 단위’로 진입했음을 의미합니다. 10GW는 어느 정도의 전력일까요? 저도 자세히 알지 못해서 한번 조사해 보았습니다. (역시 AI 기술을 활용했습니다.) 10GW는 순간적으로 10,000MW를 계속 사용하는 규모로 이를 1년 기준으로 환산하면
약 87.6 TWh(테라와트)에 해당합니다. 쉽게 비교하고 인지해 보기 위해서 서울시와 비교해 보았습니다. 서울시의 연간 전력 사용량: 약 50 TWh 정도라고 합니다. 즉, 단일 AI 인프라가 서울시 전체보다 더 많은 전력을 사용할 수 있는 규모입니다.
기존 IT와 AI의 전력 사용은 무엇이 다를까요? 간단히 얘기해 보면, 기존 IT는 “필요할 때 계산”했다면,
AI는 “계속 계산” 한다입니다. 이 차이가 전력 사용량을 양적 증가가 아닌, 구조적 폭증으로 바꿔놓았습니다.
AI 산업은 흔히 다모델 성능, 데이터 규모, 알고리즘 혁신의 세 가지 요소로 정의됩니다. 하지만 AI 확장의 진짜 병목은 ‘전력'일 수 있습니다. 그렇다면 왜 전력이 생각보다 더 큰 문제가 될 수 있을까요?
먼저, 전력 인프라는 빨리 늘릴 수 없습니다. 발전소 건설에는 10년 이상의 장기간 시간이 필요하고, 송전망 증설에는 해결해야 하는 사회적 갈등해오와 인허가 등이 선행 되어야 합니다. 그리고 AI 수요는 경기와 무관하게 증가합니다. 경기가 불황일 때 자동화 수요는 오히려 증가할 수 있습니다. 효율에 대한 압박이 오히려 AI 도입을 더 가속할 수 있습니다.
이런 문제를 해결하기 위해 이미 새로운 방향들이 현실화되고 있습니다. 먼저, AI 데이터센터의 지리 이동입니다. 전력 단가가 낮은 지역, 원자력·가스·재생에너지 인접 지역, “도시 근처” → “전력 근처”로 AI 데이터센터의 이동이 이뤄지고 있습니다. 그리고, AI 인프라의 산업화입니다. GPU는 더 이상 서버나 IT 자산이 아닌 생산 설비가 됩니다. 데이터센터는 이제 IT 시설이 아니라 AI 공장이 됩니다. 이를 위한 전력 계약은 더 이상 비용이 아니라 핵심 전략이 됩니다.
AI는 소프트웨어처럼 보이지만 그 기반은 철저히 물리적 인프라라는 생각이 듭니다. 연산은 전기를 태우고, 지능은 에너지를 소비하기 때문에 AI 모델의 한계보다 전력의 한계가 먼저 올지도 모릅니다. 이처럼 엔비디아의 10GW 발표는 단순한 숫자가 아닙니다. AI 경쟁의 본질은 알고리즘이 아니 전력을 얼마나 안정적으로 확보하느냐로 이동하고 있습니다.
이제는 누구나 쓸 수 있는, 어쩌면 흔해진 AI를 한 번 더 쓰는 것은 단순히 버튼을 한 번 더 누르는 일이 아닙니다. 그 뒤에서는 수많은 서버와 GPU 등 IT 인프라고 돌아가고 동시에 그만큼의 전기와 에너지가 소모됩니다. 우리는 이제 “AI가 편리한가?”뿐 아니라 “이 편리함의 대가는 무엇인가?”**를 함께 생각해야 할 때가 아닐까요.