AI 뒤에 숨은 진짜 골드러시
몇 년 전만 해도 AI 붐에 올라타고 싶다면 엔비디아(Nvidia)를 샀다. AI가 뭔지 몰라도 "AI = 엔비디아"라는 공식만 알면 됐다. 좀 더 모험적이라면 AMD, 글로벌한 감각이 있다면 TSMC까지. 이 공식은 여전히 유효하다. 하지만 이제 충분하지 않다.
왜 더 이상 충분하지 않을까? AI의 진짜 한계가 드러났기 때문이다.
오늘날 AI는 단순한 칩 스토리가 아니라, 전력 스토리다.
ChatGPT 한 번 질문할 때마다 구글 검색 10번보다 더 많은 전기를 쓴다고 생각해보자. 그런데 전 세계가 AI를 쓰기 시작했다. 24시간, 365일.
우리는 거대한 AI 워크로드가 밤낮없이 돌아가는 미래를 구축하고 있다. 그 미래는 실리콘만으로는 돌아가지 않는다. 전기로 돌아간다. 그것도 엄청난 양의.
맥킨지(McKinsey)에 따르면, 데이터 센터(data center) 전력 수요는 2030년까지 거의 298GW까지 폭증할 수 있다. 현재 수준의 5배다.
298GW가 얼마나 큰 숫자인지 감이 안 온다면 이렇게 생각해보자. 원자력발전소 1기가 보통 1GW를 생산한다. 즉, 원전 300기 분량의 전력이 오직 데이터 센터만을 위해 필요하다는 뜻이다. 전세계 AI가 돌아가려면 말이다.
그런데 전력망은 이를 위해 만들어지지 않았다. 기존 전력망은 "사람들이 에어컨 틀고 TV 보는 정도"를 기준으로 설계됐다. AI는 그런 수준이 아니다.
AI에 대한 야망과 전기적 현실 사이의 이 간극은 2차 대전 이후 최대 규모의 인프라 구축 붐 중 하나를 열고 있다. 그리고 똑똑한 투자자들은 이미 포지션을 잡고 있다.
맥킨지에 의하면, 가장 보수적인 시나리오에서도 2030년 데이터센터 용량은 현재의 3배가 된다. 낙관적 시나리오에서는 5배를 넘는다. 연평균 성장률이 27%다.
27% 성장이 얼마나 빠른 건지 모르겠다면, 스마트폰 보급 속도와 비슷하다고 생각하면 된다. 10년 전만 해도 스마트폰 없이 살았는데, 지금은 상상할 수 없잖아? AI 전력 수요도 그런 속도로 늘어나고 있다.
이는 단순히 "더 많은 서버"의 문제가 아니다. 전력 인프라의 근본적인 재편이다. 생각해보자. 서울 강남구만큼 큰 데이터센터가 하나 들어선다면, 그 지역 전체의 전력 소비량이 갑자기 10배로 뛴다. 발전소부터 송전망, 심지어 땅 밑 케이블까지. 모든 것이 다시 설계되어야 한다. 그리고 AI 서버들은 엄청나게 뜨겁다. 냉각 시스템 없이는 몇 분 만에 타버린다. 냉각에도 또 전력이 든다. 악순환이다.
모든 사람이 엔비디아를 보고 있을 때, 진짜 돈은 엔비디아에 전력을 공급하는 곳에서 만들어진다.
전력 회사들? 당연히 주목받고 있다. 하지만 생각해보자. 전력회사는 이미 포화 상태다. 새로 원전 짓는 데 10년, 송전선 까는 데 5년. 너무 느리다.
진짜 흥미로운 건 그 사이사이에 숨어있는 플레이어들이다.
전력 효율 솔루션: AI 서버가 같은 일을 하면서도 전기를 덜 쓰게 하는 기술. 연비 좋은 자동차를 만드는 것과 같은 원리다.
냉각 기술: 서버를 차갑게 유지하면서도 에어컨 전력을 덜 쓰는 방법. 일부 회사는 바다 밑에 데이터센터를 짓기도 한다.
스마트 그리드 관리: 전력을 효율적으로 배분하는 AI. 아이러니하게도 AI 문제를 AI로 해결하는 거다.
이런 것들이 새로운 반도체가 될 것이다. 아니, 반도체보다 더 중요할 수도 있다.
병목지점이 바뀌었다. 예전에는 "더 빠른 칩"이 문제였다. 이제는 "그 칩을 돌릴 전기"가 문제다. 마치 고속도로와 같다. 자동차(AI 칩)가 아무리 빨라봤자, 고속도로(전력 인프라)가 막혀있으면 소용없다. 지금 전 세계가 AI 고속도로를 새로 뚫고 있는 상황이다.
내일은 물이나 열 관리 소재일 수도 있다. 하지만 전력은 지금 여기에 있다. 긴급하다. 그리고 이를 해결하는 회사들은 이제 막 시작했을 뿐이다.
투자자 입장에서 생각해보자. 누구나 아는 엔비디아 사기엔 이미 늦었다. 하지만 "엔비디아를 굴릴 전기"는 이제 시작이다.
엔비디아 주가 올랐다고 난리칠 때, 정작 돈 벌 곳은 따로 있다.