AI 시대 바틀넥은 GPU가 아닌 메모리
생성형 AI의 확산은 AI 경쟁의 무대를 단순한 모델 성능 경쟁에서 인프라와 하드웨어의 구조적 우위 경쟁으로 이동시키고 있다. 초기에는 누가 더 많은 GPU를 확보했는지가 경쟁력을 가르는 핵심 변수였다면, 이제는 GPU가 아무리 많아도 이를 제대로 활용하지 못하게 만드는 병목이 어디에서 발생하는지가 더 중요한 문제가 되고 있다. 그 병목의 중심에 메모리가 있다. 특히 대규모 언어모델과 멀티모달 AI가 본격적으로 확산되면서 연산 능력 자체보다 데이터를 얼마나 빠르고 효율적으로 공급할 수 있는지가 AI 성능과 비용을 동시에 좌우하는 핵심 요소로 부상하고 있다. 이 지점에서 한국은 메모리 반도체, 특히 DRAM과 HBM에서 세계적으로 드문 구조적 우위를 확보한 국가로 다시 주목받고 있다.
현재 글로벌 메모리 반도체 시장에서 한국의 위상은 단순한 경쟁 우위 수준을 넘어 사실상 과점 구조에 가깝다. 삼성전자와 SK하이닉스는 DRAM 시장에서 합산 점유율 70% 이상을 차지하고 있으며, NAND 플래시에서도 절반에 가까운 점유율을 유지하고 있다. 특히 2025년 들어 DRAM 매출 기준으로 SK하이닉스가 삼성전자를 근소하게 앞서며 1위에 오르는 분기들이 나타났고, 두 회사가 만들어내는 기술·공급·가격 영향력은 글로벌 서버 및 AI 인프라 시장 전체에 직접적인 파급력을 미치고 있다. 이러한 구조는 단순히 메모리를 잘 만든다는 의미를 넘어, AI 인프라의 핵심 부품에 대한 공급망 주도권을 한국 기업들이 쥐고 있음을 뜻한다.
이러한 흐름을 결정적으로 강화한 것이 HBM이다. HBM은 기존 DDR 계열 메모리로는 감당하기 어려운 AI 연산의 데이터 병목을 해결하기 위해 등장한 고대역폭 메모리로, 여러 개의 DRAM 다이를 수직으로 적층하고 초광대역 인터페이스로 연결함으로써 대역폭과 전력 효율을 획기적으로 개선한 구조다. AI 가속기의 성능은 이제 단순한 연산 코어 수가 아니라, 그 코어에 데이터를 얼마나 빠르게 공급할 수 있는지에 의해 결정되는데, 이 역할을 사실상 독점적으로 수행하는 것이 HBM이다. 현재 엔비디아의 주력 AI GPU 대부분은 HBM3 혹은 HBM3E를 기반으로 설계되어 있으며, 차세대 AI 가속기 역시 HBM 의존도를 더 높이는 방향으로 로드맵이 구성되어 있다.
이 HBM 시장에서 SK하이닉스는 70%를 넘는 점유율로 사실상 핵심 공급자 역할을 수행하고 있다. 엔비디아 AI GPU에 탑재되는 HBM의 상당 부분이 SK하이닉스에서 공급되고 있으며, 이는 글로벌 AI 인프라 확장 속도가 곧 한국 메모리 산업의 성장과 직결되는 구조임을 의미한다. AI 인프라에서 발생하는 병목이 메모리로 이동하면서, 메모리는 더 이상 CPU나 GPU 위에 얹히는 보조 부품이 아니라, 전체 시스템의 성능과 비용을 결정하는 전략 자산으로 재정의되고 있다.
AI 인프라의 투자 구조를 들여다보면 이 변화는 더욱 분명해진다. 대규모 데이터센터와 AI 팩토리에서 발생하는 하드웨어 투자 비용은 GPU, 네트워크, 그리고 HBM에 집중되고 있다. 특히 HBM은 GPU 한 개당 수십에서 수백 기가바이트 단위로 탑재되며, 탑재량과 세대가 올라갈수록 단가와 마진이 동시에 상승하는 구조를 갖고 있다. 시장 조사기관들의 전망에 따르면 HBM 시장 규모는 2024년 약 25억 달러 수준에서 2030년에는 90억 달러 이상으로 성장할 것으로 예상되며, 이는 일반 DRAM 시장 성장률을 크게 상회하는 수치다. AI 성능을 결정하는 공식이 사실상 ‘GPU 코어 수 곱하기 HBM 용량과 대역폭’으로 단순화되는 상황에서, 후자의 핵심 공급자가 한국이라는 점은 매우 강력한 전략적 레버리지다.
이러한 구조적 변화는 기술 로드맵 측면에서도 한국에 유리하게 작용하고 있다. HBM은 HBM3E를 거쳐 HBM4로 진화하면서 적층 수, 스택당 용량, 대역폭이 급격히 증가하고 있다. 이 과정에서 미세 공정, 적층 기술, 패키징 역량이 동시에 요구되는데, 이 세 영역 모두에서 삼성전자와 SK하이닉스는 글로벌 선두 그룹에 속해 있다. 단순한 메모리 칩 제조를 넘어, 첨단 패키징과 AI 가속기와의 공동 설계 역량이 중요해지는 국면에서 한국 메모리 기업들의 기술 축적은 쉽게 따라잡기 어려운 진입 장벽으로 작용하고 있다.
더 나아가 메모리의 역할은 HBM에만 국한되지 않는다. AI 서버와 데이터센터에서는 HBM과 함께 고성능 DDR5, LPDDR5X, 그리고 CXL 기반 메모리 풀링 구조가 동시에 중요해지고 있다. AI 워크로드가 다양해질수록 모든 데이터를 HBM에만 담는 것은 비용과 전력 측면에서 비효율적이기 때문에, 계층화된 메모리 아키텍처가 필수로 자리 잡고 있다. 이 과정에서 메모리 자체의 성능뿐 아니라, 메모리를 어떻게 배치하고 연결하느냐가 시스템 전체의 TCO를 결정하게 된다. 이는 메모리 업체가 단순 부품 공급자를 넘어 시스템 설계의 핵심 플레이어로 올라설 수 있는 여지를 만든다.
AI 추론과 엣지 영역으로 시선을 옮기면, 메모리 중심 컴퓨팅의 중요성은 더욱 커진다. 전력과 비용 제약이 큰 환경에서는 데이터를 연산 장치로 옮기는 것 자체가 부담이 되기 때문에, 메모리 내부나 인접 영역에서 연산을 수행하는 PIM이나 near-memory 컴퓨팅 구조가 현실적인 대안으로 부상하고 있다. 아직은 파일럿과 초기 상용 단계에 머물러 있지만, 이 영역은 메모리 기술과 아키텍처에 대한 이해가 깊은 기업이 주도권을 쥘 가능성이 높다. 이 역시 한국 메모리 산업이 중장기적으로 확보할 수 있는 중요한 전략 공간이다.
산업 구조 측면에서도 메모리의 위상 변화는 명확하다. HBM 공급사는 사실상 삼성전자, SK하이닉스, 마이크론 세 곳으로 제한되어 있으며, 이 중에서도 최신 세대 제품의 양산과 수율 측면에서 한국 기업들이 앞서 있다. 이로 인해 엔비디아, AMD, 글로벌 클라우드 사업자들조차 장기 공급 계약과 선급금 지급 구조를 수용하고 있다. 이는 메모리 가격과 스펙에 대한 협상력이 공급사로 이동하고 있음을 보여주는 대표적인 사례다. 메모리가 AI 인프라 비용 구조에서 차지하는 비중이 커질수록, 이 협상력은 더욱 강화될 가능성이 높다.
이러한 환경에서 한국 메모리 기업들이 취할 수 있는 전략은 단순한 생산 확대를 넘어선다. GPU 업체 및 클라우드 사업자와의 관계를 단순한 납품 관계가 아니라 공동 설계와 플랫폼 협력 수준으로 끌어올리는 것이 중요하다. 특정 AI 워크로드에 최적화된 HBM과 DDR, CXL 조합을 설계하고, 전력과 쿨링까지 포함한 메모리 서브시스템 단위의 제안이 가능해질 경우, 메모리는 AI 플랫폼의 일부로 재정의될 수 있다. 이는 메모리 기업이 AI 생태계에서 차지하는 위상을 근본적으로 바꾸는 전략이다.
정책과 에코시스템 관점에서도 이러한 변화는 의미가 크다. 한국 정부는 소버린 AI와 AI 반도체 전략에서 메모리를 핵심 자산으로 명시하고 있으며, 이를 기반으로 패키징, 후공정, 전력과 쿨링 인프라까지 아우르는 수직 통합 클러스터 구축을 추진하고 있다. GPU 설계와 생산을 온전히 확보하지 못하더라도, 메모리를 중심으로 한 AI 팩토리와 인프라 운영 영역에서 글로벌 허브를 노릴 수 있는 현실적인 선택지를 한국은 이미 갖고 있다.
AI 인프라의 미래를 바라보면, 성능과 비용의 병목은 점점 프로세서 코어에서 메모리로 이동하고 있다. 용량과 대역폭, 그리고 메모리가 어디에 위치하느냐가 AI 시스템의 효율을 좌우하는 시대가 열리고 있다. HBM, CXL, PIM이라는 세 축 모두에서 글로벌 톱티어 경쟁력을 보유한 국가는 많지 않으며, 한국은 그 드문 사례 중 하나다. CPU와 GPU 중심의 시각을 넘어 메모리 중심으로 AI 인프라를 재해석할 때, 한국은 AI 시대에 다시 한 번 산업적 도약의 기회를 맞이하고 있다. 이는 단기적인 반도체 사이클의 문제가 아니라, 향후 5년에서 10년을 관통할 구조적 변화의 신호다.
❍ 작가의 2026년 IT/AI 트렌드 전망서
https://www.yes24.com/product/goods/154580236