전기 인프라가 인공지능 혁명의 발목을 잡을 것인가?
디지털이든, 인공지능이든 기본은 전기다. 전기가 흐르지 못하면 거의 모든 것은 쓸모 없는 고철과 같다. 여기저기서 인공지능을 외치는데, 인공지능은 전기를 미친듯이 빨아들인다. 그렇다면, 우리는 인공지능 혁명을 충분히 이뤄낼 수 있는 전기 공급을 할 수 있을까?
이런저런 이야기가 진행되는 가운데, 나는 현재의 우려는 공포에 가까운 전망이 아닐까 싶다. 물론, 이런저런 논문, 보고서, 기사를 둘러보고 정리한 근거 있는 생각이다. 그럼에도 내 예상이 잘못될 수 있어(우리는 미래예측에서 어느 쪽이든 무능할 수밖에 없다), 아직은 좀 더 지켜봐야할 시점이라 생각한다. 다만, 나와 논조가 비슷한 사람의 글이 있어 그 전문을 번역해서 옮겨 본다.
(이미, 많은 곳에 가서 관련 주제로 토론하고 발제할 때 가장 많은 인용을 한 글이기도 하다)
글의 출처는
https://substack.com/@hannahritchie/note/p-151770312?utm_source=notes-share-action
인공지능이 에너지 수요에 미치는 영향
국제 에너지 기구(IEA)는 우리가 좀 진정할 필요가 있다고 생각한다.
Hannah Ritchie
2024년 11월 18일
인공지능(AI)은 지난 한 해 동안 가장 많이 요청된 주제이다.
나는 AI에 대해 글을 쓰는 것을 피해왔다. 그 이유는 AI의 에너지 소비와 기후에 미치는 영향에 대한 신뢰할 수 있는 데이터가 얻기 어렵기 때문이다(사샤 루치오니와의 팟캐스트 에피소드를 참고). 적절한 데이터가 없으면 단순히 손짓만 하는 것과 다를 바 없다고 생각했기 때문이다.
하지만 몇 가지 이유로 이제 이 주제에 대해 말해야 할 때가 온 것 같다. 아마도 이 주제에 대해 쓸 마지막 기사는 아닐 것이다. 상황이 빠르게 변화하고 있기 때문이다.
첫째, 국제 에너지 기구(IEA)는 최근 2024 세계 에너지 전망 보고서를 발표했다. 이 보고서에서는 데이터 센터와 AI의 에너지 수요가 최소한 향후 5년간은 여전히 그리 크지 않을 것이라고 제시했다. 나는 이 말을 "모두 좀 진정하라"는 의미로 해석했다. 다만, 더 외교적인 표현을 사용했겠지만.
둘째, 우리는 데이터 센터의 에너지 수요가 통제 불능으로 증가할 것이라는 우려를 이미 여러 번 겪어왔다. 왜 이러한 재앙적 시나리오가 현실이 되지 않았는지, 그리고 오늘날 우리가 직면한 유사점(혹은 차이점)을 살펴보는 것이 의미가 있다.
셋째, 이 주제에 대한 대중과 언론의 논의는 부족했다. 나는 AI가 이미 사용하고 있는 에너지나 물의 양을 보여주는 무작위 숫자들을 인용하는 수많은 헤드라인과 기사를 자주 본다. 그 숫자들은 종종 그리 크지 않지만, 다른 모든 것에 비해 얼마나 많은 에너지나 물을 사용하는지에 대한 맥락 없이 제시되어 너무 큰 것처럼 보인다.
여기에서는 오늘날 데이터 센터가 얼마나 많은 전기를 사용하는지, 중기적인 예측은 어떤지, 그리고 최근 기술 기업들의 발표와 이를 어떻게 맞출 수 있을지 살펴보겠다.
전 세계 전기의 몇 퍼센트에 불과하다.
이것을 계산하는 것은 생각보다 쉽지 않다. 데이터 센터를 운영하는 기업들은 단순히 서버가 사용하는 전기량을 보고하지 않으며, 연구자들은 이러한 프로세스의 에너지 사용량을 추정하기 위해 아래위 방법을 사용한다. 연구자들이 도출하는 추정치는 조금씩 다르지만, 결과적으로 비슷한 결론에 도달한다.
현재 데이터 센터는 전 세계 전기의 약 1~2%를 사용하고 있다. 암호화폐를 포함하면 약 2%이다.
국제 에너지 기구(IEA)는 올해 1월에 발표한 연간 전력 보고서에서 데이터 센터, AI, 암호화폐가 약 460 테라와트시(TWh)의 전기를 소비한다고 추정했다. 이는 전 세계 전력 수요의 거의 2%에 해당한다.
이 숫자는 2022년의 수치이고, 그 이후 AI 분야는 급격히 성장했다. 따라서 2023년과 2024년의 에너지 수요는 이보다 더 많을 것으로 예상되지만, 그 차이는 크지 않을 것이다. 다음 섹션에서 볼 수 있듯이, IEA는 2030년까지의 수요 증가 예측이 그리 크지 않다고 보고 있다. 따라서 2023년과 2024년의 증가폭은 더 적을 것이라고 예상된다.
연구자 Alex de Vries는 지난 몇 년 동안 AI의 에너지 발자국을 추산한 첫 번째 연구자 중 하나이다. 한 가지 방법은 NVIDIA의 서버 판매량을 기준으로 얼마나 많은 에너지가 소비될지 추정하는 것이다. NVIDIA는 AI 서버 시장을 완전히 지배하며, 전 세계 판매의 약 95%를 차지한다.
De Vries는 2023년에 제공된 서버들이 최대 용량으로 가동된다고 가정할 경우, 약 5~10 TWh의 전력이 소비될 것이라고 추정했다. 이는 모든 데이터 센터, 전송 네트워크, 암호화폐가 사용하는 460 TWh에 비해 매우 작은 수치이다.
에너지 사용량을 추정하는 또 다른 방법은 구글과 같은 검색 엔진이 대형 언어 모델(LLM) 기반 검색 결과로 전환할 경우 얼마나 많은 에너지가 필요한지를 살펴보는 것이다. LLM 기반 검색은 표준 구글 검색보다 약 10배 많은 에너지를 소비하는 것으로 알려져 있다.
De Vries는 만약 모든 구글 검색이 LLM 검색으로 바뀐다면, 구글의 연간 전력 수요가 18 TWh에서 29 TWh로 증가할 것이라고 추정했다. 그리 큰 숫자는 아니지만, 데이터 센터 전체의 전력 수요와 비교했을 때 그렇게 거대한 수치는 아니다. 중요한 점은, 구글이 이렇게 빠르게 전환할 가능성은 낮다는 것이다. NVIDIA가 서버를 빠르게 생산할 수 있는 능력이 부족하기 때문이다. 서버 생산 용량은 AI 성장의 중요한 제약 요소이다.
데이터 센터와 AI가 전 세계 전기의 몇 퍼센트만 소비하고 있지만, 일부 국가에서는 이 비율이 훨씬 더 높다. 아일랜드는 그 좋은 예로, 데이터 센터가 그 나라의 전력 수요의 약 17%를 차지한다. 미국과 일부 유럽 국가들에서는 이 비율이 전 세계 평균보다 높아 3~4%에 달한다. 나중에 알 수 있듯이, AI의 에너지 수요는 매우 지역화되어 있다. 미국의 5개 이상의 주에서는 데이터 센터가 전력 수요의 10% 이상을 차지한다.
사람들이 데이터 센터의 에너지 수요에 대해 자주 놀라곤 하지만, 나는 그것이 매우 효율적인 거래라고 생각한다. 이제 세상은 디지털로 돌아가고 있다. 만약 인터넷 서비스를 중단한다면, 우리 주변의 모든 것이 무너질 것이다. 전 세계 전력의 몇 퍼센트를 이 서비스를 유지하는 데 쓰는 것은 나쁘지 않다고 생각한다.
물론 우리는 알 수 없다. 그리고 나는 10년 이상 미래에 대한 예측은 매우 회의적이다. 심지어 5년 정도의 예측도 점점 더 추측에 가까워지고 있다.
지난 달, 국제 에너지 기구(IEA)는 최신 2024 세계 에너지 전망 보고서를 발표했다. 그 안에는 흥미로운 통찰이 많이 포함되어 있었지만, 많은 사람들의 주목을 받은 것은 데이터 센터에 대한 예측이었다. 그 예측은 다소 실망스러웠다.
IEA는 2023년과 2030년 사이의 전력 수요 증가를 어떻게 예상하는지에 대한 예측을 발표했다. 아래 차트에서 그 증가의 주요 동인들을 볼 수 있다.
데이터 센터는 총 6,000 TWh 중 223 TWh를 차지했으며, 이는 전체 수요 증가의 3%에 불과하다.
그 외에도 산업, 전기차, 에어컨 수요 증가(그리고 간접적으로 난방 수요 증가)가 훨씬 더 중요한 요소였다.
데이터 센터는 내가 이전에 다룬 담수화보다 더 중요하지 않다는 점에서 큰 차이를 보였다.
이 예측들은 매우 불확실하다. IEA는 이러한 추정치의 민감도를 측정하기 위해 "빠른 AI 성장"과 "느린 AI 성장" 시나리오를 발표했다. 아래 차트에서 이들이 전력 수요 증가의 주요 동인 목록에서 어떻게 위치할지 보여준다. 심지어 빠른 성장 시나리오에서도 데이터 센터는 전력 수요를 주도하는 큰 요인으로서 순위가 크게 변하지 않는다.
이것은 IEA의 이전 예측보다 낮다는 점에서 주목할 만하다. 여기서 말하는 이전 예측은 바로 올해 1월의 예측이다. 2024년 전력 보고서에서 IEA는 2026년까지 에너지 수요가 두 배로 증가할 수 있다고 예상했다(아래 참조). 2030년까지의 증가폭은 그보다 더 클 것이라고 보았다.
이러한 예측이 왜 이렇게 낮을 수 있는지 궁금할 수도 있다. AI 수요 자체가 급증하고 있는데 말이다. 그 이유는 데이터 센터의 효율성도 빠르게 개선되고 있기 때문이다.
아래 차트에서 컴퓨터 칩의 효율성 향상을 볼 수 있다. 이 차트는 로그 스케일로 되어 있으며, 이 칩들의 에너지 집약도는 2008년 대비 1%도 채 되지 않는다.
우리는 데이터 센터에 대한 에너지 수요 우려를 이미 여러 번 경험했다. 이번이 처음이 아니다.
오랫동안 컴퓨터와 인터넷의 에너지 수요가 급증할 것이라고 예측해왔다.
1999년 포브스의 기사에서는 이렇게 말했다: “석탄을 더 캐라 — PC들이 온다”:
“전 세계적으로 10억 명이 온라인에 접속할 것이라고 인텔은 예상한다. […] 10억 대의 PC가 인터넷에 연결된다면, 그로 인한 전력 수요는 오늘날 미국 전체 전력 용량에 해당한다.”
물론 디지털 서비스와 데이터 센터의 수요는 급증했다. 그 점에 대해서는 맞았다. 2010년 이후 인터넷 기술의 예상 성장에 따라 에너지 수요가 증가할 것이라고 가정하면, 꽤 두려운 수치가 나온다.
하지만 에너지 수요는 그렇게 증가하지 않았다. 그 이유는 우리가 방금 살펴본 엄청난 효율성 향상 덕분이다.
2010년과 2018년 사이, 전 세계 데이터 센터의 처리 능력은 550% 이상 증가했다. 그러나 데이터 센터에서의 에너지 사용은 겨우 6% 증가했다.
이는 "쿠미 법칙"(Koomey’s Law)에서 설명하는 바와 같다. 이 법칙은 에너지 단위당 수행할 수 있는 계산의 급격한 증가를 설명한다.
IEA와 다른 연구자들은 AI에 의한 에너지 수요 성장은 주목할 만하지만 압도적이지는 않을 것이라고 제시한다. 그러나 그 배경에서 기술 기업들은 신뢰할 수 있고 저탄소 에너지에 투자하기 위해 분주하다. 예를 들어, 마이크로소프트는 쓰리 마일 아일랜드 원자력 발전소를 재가동하기로 계약을 맺었다.
하나의 회사 운영을 위해 전체 원자력 발전소를 사용한다고? 이는 커다란 일처럼 보일 수도 있다. 하지만 숫자를 보면 그렇지 않다.
쓰리 마일 아일랜드는 한때 연간 약 7.2 TWh의 전력을 생산했다. 미국은 매년 4,250 TWh의 전기를 생산한다. 즉, 쓰리 마일 아일랜드는 전체의 0.2%에 불과하다. 전 세계 총량으로 따지면 0.02%에 해당한다.
따라서 두 가지가 동시에 맞을 수 있다: 마이크로소프트의 데이터 센터가 쓰리 마일 아일랜드의 전력으로 전량 공급된다면, 이는 미국이나 전 세계 전력 수요에서 단지 오차 범위 내의 작은 수치에 불과하다.
핵심은 AI에 대한 에너지 수요가 매우 지역화되어 있다는 것이다. 이는 전체 에너지 수요에 미치는 영향이 작더라도, 특정 지역에서는 전력망에 심각한 부담을 줄 수 있다는 의미다.
IEA의 최근 보고서에 따르면, 데이터 센터의 에너지 수요 집중도가 다른 시설들보다 훨씬 더 높다. 이로 인해 기술 기업들이 지역적인 수준에서 겪는 우려와 글로벌 차원에서의 수치 간 불일치가 발생하는 것이다.
또 다른 중요한 불일치는 속도에 있다. AI에 대한 수요는 빠르게 증가하고 있으며, 데이터 센터는 이를 충족하기 위해 상대적으로 빨리 지을 수 있다. 하지만 에너지 인프라를 구축하는 속도는 훨씬 더 느리다(특히 미국에서 대규모 원자력 발전소를 건설하려고 한다면). 이는 전체적인 국가나 글로벌 차원의 수요가 크지 않더라도, 에너지 공급이 병목 현상이 될 수 있다는 것을 의미한다.
AI의 미래 에너지 수요에 대한 예측이 정확할 것이라는 보장은 없다. IEA와 같은 기관들의 예측이 과거에도 다른 기술 트렌드에서 틀린 경우가 많았다. 특히, 태양광 발전과 전기차의 성장을 과소평가한 사례가 있다.
AI의 에너지 수요가 “그다지 큰 문제는 아니다”라는 그림을 그리려고 하는 것은 아니다. 왜냐하면 우리가 이 트렌드들이 어떻게 발전할지 모르기 때문이다.
기술 기업들이 현재의 에너지 수요와 그것이 시간에 따라 어떻게 변화하는지에 대해 더 많은 투명성을 제공한다면, 연구자들이 이를 따라잡는 데 도움이 될 것이다. 이 점을 처음 말하는 것은 아니다.
하드웨어 효율성의 지속적인 개선도 중요한 요소다.
비록 효율성이 개선되더라도, 그것이 AI에 대한 수요 증가를 따라잡기엔 부족할 것이다. 에너지 수요가 현재 수준을 유지할 것이라고 예상하는 추정치는 본 적이 없다. 에너지 수요는 증가할 것이다. 그러나 그것이 많은 사람들이 예상하는 것보다는 덜 클 수 있다.