이설아빠의 Global Business Story
챗GPT 같은 생성형 AI가 똑똑해지려면 엄청난 양의 데이터를 저장하고, 꺼내 쓰고, 다시 계산해야 한다. 사람은 뇌에 기억을 저장하지만, AI는 반도체 메모리에 데이터를 저장한다.
계산을 담당하는 두뇌 = GPU
그 GPU가 쓸 데이터를 가져오는 기억 창고 = 메모리(D램, HBM)
예전에는 CPU + D램 조합이면 워드, 유튜브, 게임과 같은 웬만한 컴퓨터 작업은 다 가능했다. 하지만 AI 시대가 되면서 문제가 생겼다. 데이터가 너무 많이 필요하고, 또 너무 빨리 오가야 하는 시대가 된 것이다. 여기서 GPU와 함꼐 새롭게 등장한 주인공이 바로 HBM이다.
D램은 넓은 운동장 같다. 데이터 상자를 여기저기 두고, 트럭이 가로질러 다니며 옮긴다. 그렇다 보니 길(대역폭)에 한계가 있어, 속도에도 자연스럽게 한계가 생겼다.
반면, HBM은 고층 아파트와 같다. D램 칩을 여러 층으로 쌓고, 층과 층 사이를 TSV라는 엘리베이터(구리 기둥)로 곧바로 연결하였다. 그래서 데이터가 운동장을 한 바퀴 돌아갈 필요 없이 엘리베이터를 타고 위아래로 바로 움직일 수 있다.
즉, 같은 면적 안에서 훨씬 더 많은 데이터를, 훨씬 더 빠르게 주고받을 수 있게 된 것이다. 이 HBM이 바로 GPU 옆에 붙어, AI가 쓸 문제집(데이터)을 실시간으로 던져주는 초고속 책장 역할을 하는 것이다.
여기서 흥미로운 현상이 하나 더 나타났다. “HBM 대란”과 동시에 “D램 패닉바잉, D램 가격 급등”과 같은 뉴스가 함께 나온것이다. 왜 그럴까? GPU에는 HBM이 중요하다고 했는데.
이유는 의외로 단순하다. D램과 HBM은 같은 공장, 같은 웨이퍼로 만든다. 그러나 반도체 제조기업들은 HBM이 더 비싸고 잘 팔리니, 공장 캐파를 HBM 쪽으로 더 많이 돌린다. 그만큼 D램 생산량은 줄어든다.
그러나 AI 서버 한 대에는 GPU + HBM뿐 아니라, 1~2TB의 D램도 함께 들어간다. 그렇기 때문에 AI 서버가 수천, 수만 대 늘어나면 HBM 수요와 함께 D램 수요도 같이 폭발하는 것이다.
이건 마치 이렇다. 초코케이크(HBM)가 너무 잘 팔려서 같은 오븐에서 굽는 치즈케이크(D램)를 덜 만들게 되자, 치즈케이크 팬들이 “지금 안 사면 내일 품절이야!” 하며 서둘러 사들이는 상황, 즉 패닉바잉이 된 것이다.
그래서 우리는 이렇게 말할 수 있다. HBM이 주인공이라면, D램은 무대 뒤에서 시스템을 지탱하는 숨은 영웅이다!
이제 마지막 질문을 해보자. AI 시대에 GPU와 함께 가장 중요하다고 평가받는 HBM을 누가 만들고 있고, 그 싸움에서 이기는 회사는 어디일까?”
지금 HBM 시장은 삼성전자, SK하이닉스, 마이크론 단 세 회사가 사실상 나눠 갖고 있다. 그중에서도 한국의 두 회사(삼성·하이닉스)가 HBM 시장의 대부분을 쥐고 있다. 한편, AI용 GPU 시장에서는 엔비디아가 절대강자다.
삼성·SK하이닉스·마이크론 → HBM을 만드는 메모리 3인방
엔비디아 → HBM을 가장 많이 쓰는 슈퍼 고객
엔비디아가 “우리는 이런 사양의 HBM이 필요합니다”라고 말하면, 메모리 회사들의 개발 방향이 바뀐다. 미국은 CHIPS법으로 마이크론을 밀어주며 “미국 땅에서 만드는 HBM” 비중을 키우려 하고, 한국은 기술과 생산력을 앞세워 “이 시장의 리더 자리를 지키겠다”고 나서고 있다.
결국 싸움의 본질은 이렇게 정리할 수 있다. 단순히 “누가 메모리를 더 잘 만드느냐”가 아니라, “누가 AI 고객(엔비디아·빅테크)의 생태계 안으로 더 깊숙이 들어가느냐”를 두고 벌이는 전쟁이다.
앞으로 뉴스를 보다 다음과 같은 헤드라인이 보이면, “GPU 부족, AI 서버 증설”, “HBM 투자 확대, HBM 증산”, “삼성·SK하이닉스, 엔비디아와 협력 강화”, “마이크론, 미국 공장에 대규모 보조금” 이제 우리는 이렇게 떠올릴 수 있을 것이다. “아, 이건 그냥 회사 뉴스가 아니라 AI 시대 메모리 패권 전쟁의 한 장면이구나.”
그리고 이러한 관점을 가지고 뉴스를 다시 보면, AI 열풍 속에서 한국 반도체가 어디에 서 있는지, 그리고 앞으로 어디까지 갈 수 있을지 훨씬 더 선명하게 보일 것이다.