안녕하세요, 촌장입니다.
4월 20일이었죠. 아마존이 앤트로픽에 250억 달러(약 35조 원)를 추가 투자한다는 뉴스가 떴습니다. 기존에 투자한 80억 달러(약 11조 원)는 제외하고 더 추가된 투자 금액만 이 정도입니다. 그리고 앤트로픽은 향후 10년간 아마존 클라우드(AWS)에 1,000억 달러(약 140조 원) 이상을 쓰기로 했습니다. 한 기업에 대한 단일 투자로는 정말 역대급이라고 할 수 있죠.
최근에는 AI 성능에 대한 뉴스 뿐 아니라 AI 인프라에 대한 투자에 대한 소식도 풍성합니다. 그리고 그 규모도 이전에는 상상할 수 없었던 규모로 이루어지고 있습니다. 대체 왜 이렇게 엄청난 투자가 이루어지는 걸까요?
아직도 AI의 성능에 대한 뉴스가 사람들의 관심을 끌지만, 앞으로는 "누가 AI에 얼마를 투자했다"가 더 큰 화두가 되지 않을까 싶어요. AI 경쟁의 무게 중심이 '기술'에서 '규모'로 이동하고 있기 때문이죠.
1992년 미국 대통령 선거에서 빌 클린턴 민주당 후보 캠프에서 진행했던 유명한 구호가 있죠.
"바보야, 문제는 경제야 (It's the economy, stupid)"
어쩌면 이제 AI 경쟁의 시대에는 이런 구호가 딱 맞을 것 같아요.
바보야, 문제는 규모야 (It's the Scale, stupid)
오늘 수요레터에서는 AI 경쟁의 진짜 전장이 어디로 옮겨가고 있는지, 그리고 그것이 우리에게 어떤 의미인지를 함께 살펴보려 합니다.
자, 그럼 시작해 볼까요?
올해 빅테크 기업들이 AI 인프라에 투자하겠다고 발표한 금액을 합산하면 정말 어마어마한데요.
아마존은 올해 2,000억 달러(약 280조 원)의 자본 지출을 예고했습니다. 대부분 AWS 데이터센터 확장용이라고 알려져 있구요.
구글은 1,750억~1,850억 달러(약 250조 원)를 계획하고 있고, 이는 작년(910억 달러)의 두 배입니다.
메타는 1,150억~1,350억 달러(약 170조 원), 마이크로소프트는 연간 1,200억 달러(약 170조 원) 이상의 속도로 집행 중입니다.
이 네 회사만 합치면 올해 약 7,000억 달러, 한화로 약 980조 원에 달합니다. 여기에 오라클의 500억 달러까지 더하면 거의 1,000조 원입니다.
닷컴 버블, 모바일 혁명, 초기 클라우드 투자를 모두 합쳐도 이 규모에 미치지 못합니다. 기술 산업 역사상 단일 연도 최대 자본 지출입니다.
이 돈은 어디로 가고 있을까요? 대부분 데이터센터입니다. AI 모델을 학습시키고 운영하기 위한 GPU 서버, 냉각 시스템, 네트워크 장비, 그리고 이 모든 것을 돌릴 전력 인프라에 투입되고 있습니다.
AI 경쟁에서 왜 모델의 성능보다 인프라의 규모가 더 중요해지고 있을까요? 세 가지 구조적인 이유가 있습니다.
첫째, AI 모델이 커질수록 필요한 컴퓨팅 자원이 기하급수적으로 늘어납니다.
GPT-4의 학습에는 약 30메가와트의 전력이 지속적으로 필요했습니다. 소규모 도시 하나를 돌릴 수 있는 전력입니다. 모델이 세대를 거듭할수록 이 수치는 몇 배씩 뛰어오르고 있습니다.
아무리 뛰어난 AI 모델을 개발해도, 그것을 돌릴 물리적 인프라가 없으면 아무 소용이 없죠.
그래서 AI 빅테크 기업들은 이 규모의 레이스에 사활을 걸고 있는 겁니다.
둘째, AI의 수익 구조가 바뀌었습니다.
초기에는 모델 학습(트레이닝)이 비용의 대부분이었지만, 이제는 학습된 모델을 수억 명의 사용자에게 서비스하는 추론이 전체 AI 에너지 소비의 80~90%를 차지합니다.
ChatGPT 검색 한 번이 구글 검색의 10배 전력을 쓴다는 분석도 있습니다. 사용자가 늘어날수록, 서비스가 확장될수록, 필요한 인프라도 비례해서 커져야 합니다.
AI 서비스 업체들의 고민도 여기에 있습니다. 더 성능 좋은 모델을 바로 내놓고 싶어도 이를 뒷받침할 인프라가 없으면 실제 서비스를 할 수 없는 상황이죠. 최근 AI 서비스 비용이 사용량 중심으로 가파르게 상승하고 있는 것도 이런 투자 비용과 연관이 있다고 보여집니다.
셋째, 지난주 화제가 되었던 앤트로픽의 미토스(Mythos) 사례가 이 현실을 적나라하게 보여줍니다.
앤트로픽이 미토스를 일반 공개하지 않은 이유 중 하나로, 사이버보안 우려 외에도 컴퓨팅 자원의 한계가 거론되었습니다.
벤처투자자 마크 앤드리슨은 "보안 우려가 아니라 일반 배포를 지원할 컴퓨팅 자원이 부족해서 공개를 못하는 것 아니냐"고 직접적으로 의문을 제기했고, 실제로 앤트로픽은 최근 잦은 서비스 장애와 피크 시간대 사용 제한을 겪고 있다는 보도가 있었습니다.
실제로 더 강력한 모델은 더 많은 자원을 소모합니다. 지난주 출시된 Opus 4.7만 해도 동일한 텍스트를 처리하는 데 이전 모델(Opus 4.6) 대비 최대 35% 더 많은 토큰을 사용합니다. 커뮤니티 테스트에서는 요청당 비용이 평균 37.4% 증가한 것으로 나타났습니다.
모델은 더 똑똑해지지만, 그만큼 더 많은 연료를 태우는 겁니다. 미토스급 모델이라면 이 격차는 훨씬 더 클 것입니다.
결국 AI 경쟁의 승부처는 "누가 더 똑똑한 모델을 만드느냐"에서 "누가 그 모델을 실제로 돌릴 수 있는 인프라를 가졌느냐"로 옮겨가고 있다고 할 수 있습니다.
이 인프라 전쟁의 가장 직접적인 수혜자는 누구일까요? 바로 한국의 반도체 기업들입니다.
삼성전자는 올해 1분기 영업이익 57조 원이라는 역사적 실적을 기록했습니다. 전년 동기 대비 755% 폭증입니다. SK하이닉스는 23일 1분기 실적을 발표하는데, 증권가에서는 영업이익이 사상 최초 40조 원을 돌파할 것으로 전망하고 있습니다. 전년 대비 약 370% 증가입니다. D램 영업이익률이 82%에 달할 것이라는 분석도 있습니다.
이런 천문학적 실적의 배경에는 고대역폭메모리(HBM)라는 AI 전용 반도체가 있습니다. AI 모델은 방대한 데이터를 동시에 처리해야 하기 때문에 일반 메모리보다 훨씬 빠르고 넓은 대역폭을 가진 특수 메모리가 필요합니다. SK하이닉스가 이 HBM 시장에서 약 57%의 점유율로 독보적 1위를 차지하고 있고, 엔비디아의 최신 AI 칩에 거의 독점적으로 납품하고 있습니다.
흥미로운 역설도 하나 있습니다. HBM 증산에 생산 역량을 집중하다 보니, 상대적으로 일반 D램의 공급이 줄어들었습니다. 그 결과 일반 D램 가격도 급등해서, 마이크론의 CEO는 "현재 비(非)HBM 마진이 HBM보다 더 높다"고 밝히기까지 했습니다. AI 인프라 투자 열풍이 메모리 반도체 산업 전체를 끌어올리는 구조가 만들어진 겁니다.
노무라증권은 SK하이닉스의 올해 연간 영업이익을 256조 원으로 전망하고 있습니다. 삼성전자 전망치(약 327조 원)를 합하면 양사 합산 영업이익이 580조 원에 달합니다. 정말 어마어마하죠.
하지만 모든 거대한 확장에는 그림자가 따릅니다.
에너지 문제가 가장 심각합니다.
전 세계 데이터센터의 전력 소비량은 2022년 약 460테라와트시(TWh)에서 2026년 1,000TWh 이상으로 두 배 이상 급증할 것으로 전망됩니다. 미국에서는 데이터센터가 전체 전력의 약 4%를 소비하고 있으며, 2028년에는 6~12%까지 늘어날 수 있다는 분석이 나옵니다.
대형 AI 데이터센터 한 곳이 쓰는 전력이 인구 106만 명이 거주하는 고양시 전체 가정의 전력 소비량과 맞먹는다고 볼 수 있죠. 아마존이 만드는 AI 캠퍼스 하나의 전력 용량은 원자력 발전소 한 기가 제공할 수 있는 전력 용량에 달합니다.
2024년에는 AI 확장의 가장 큰 병목이 CPU 칩 공급이었습니다. 엔비디아가 GPU 공급이 시장의 수요을 따라가지 못했기 때문입니다. 하지만 2026년에는 그 병목이 메모리로 옯겨갔고, 아마 앞으로는 전력이 그 위치를 차지할 것 같습니다. GPU나 메모리는 구할 수 있지만, 그것을 돌릴 전기가 없는 상황이 현실이 되고 있습니다.
미국 북부 버지니아(세계 최대 데이터센터 밀집 지역)에서는 신규 전력 연결 대기 시간이 3~5년을 넘기고 있습니다.
환경 문제도 뒤따릅니다.
데이터센터에 공급되는 전력의 60% 이상이 여전히 화석 연료에서 나옵니다.
빅테크 기업들이 앞다퉈 재생에너지 약속을 하고 있지만, 재생에너지 건설 속도가 폭증하는 전력 수요를 따라가지 못하고 있는 실정입니다. 메타는 루이지애나의 새 데이터센터 부지에 원자력 발전소와의 전력 계약을 맺었고, 마이크로소프트는 해저 데이터센터 실험을 진행하기도 했습니다.
경제적 지속 가능성에 대한 우려도 있습니다.
이 정도 규모의 투자가 실제로 수익으로 돌아올 수 있을까요?
아마존은 올해 자본 지출 때문에 잉여 현금 흐름이 마이너스로 전환될 것으로 예상됩니다. 투자자들 사이에서 "이 규모의 AI 투자가 정당화될 수 있느냐"는 질문이 점점 커지고 있습니다.
하지만 AI 기업의 입장에서는 투자를 멈출 수 없습니다. 여기서 멈추는 순간 영원히 따라잡기 어려운 격차가 발생하니까요.
그렇게 먼 시간이 지나지 않은 시점에 소수의 기업들만이 이 경쟁에서 살아남아 있을 겁니다.
그리고 부의 집중 문제가 있습니다.
PwC의 최근 연구에 따르면, AI 경제적 가치의 74%를 상위 20%의 기업이 가져가고 있습니다.
인프라 규모가 경쟁력을 결정하는 구조에서, 이미 거대한 인프라를 가진 기업들이 더 큰 격차를 벌릴 수밖에 없는 '부익부 빈익빈'의 순환이 시작되고 있습니다.
이런 상황에서 우리가 국가가 주도해서 AI 소버린 정책을 마련하는 것은 가장 현실적인 전략이라고 볼 수 있습니다. 개별 기업들의 힘으로는 이제 AI 경쟁에서 살아남을 수 없습니다.
19세기 미국의 철도 시대를 떠올려 봅니다. 당시에도 경쟁의 핵심은 기관차의 성능이 아니었습니다. 누가 더 많은 철로를 깔고, 더 넓은 네트워크를 확보하느냐가 승부를 결정했죠. 철도가 없으면 아무리 좋은 기관차도 달릴 곳이 없었으니까요.
지금 AI 산업이 바로 그 국면에 들어서고 있습니다. 모델의 성능은 여전히 중요하지만, 그 모델을 실제로 돌릴 수 있는 데이터센터, 전력, 반도체, 운영 시스템 등의 인프라 없이는 어떤 AI 혁신도 불가능합니다.
아마존이 앤트로픽에 35조 원을 베팅한 것은 단순히 한 AI 기업에 대한 투자가 아닙니다. AI 시대의 철도를 깔겠다는 폭석이죠. 삼성전자와 SK하이닉스의 천문학적 실적은 이 철도의 레일(반도체)을 만드는 기업의 가치를 보여줍니다.
AI 기술의 발전을 바라보는 우리의 시선도 한 단계 전환이 필요합니다. "AI가 무엇을 할 수 있는가"만 묻는 시대는 지나가고 있습니다. 이제는 "AI를 돌리려면 무엇이 필요한가", "그 비용을 누가 치르는가", "그 에너지는 어디에서 오는가"를 함께 물어야 합니다.
기술은 진공 속에서 발전하지 않습니다. 언제나 물리적 현실 위에 서 있습니다. AI가 아무리 가상의 세계를 다루더라도, 그것을 떠받치는 것은 결국 전기와 칩과 냉각수라는 지극히 물리적인 자원입니다. 이 사실을 잊는 순간, 우리는 AI의 미래를 반쪽만 보게 됩니다.
오늘 수요일, AI 뉴스의 화려한 헤드라인 너머에 있는 진짜 전장을 한번 들여다보시는 건 어떨까요.
촌장 드림