CEO's Spirit 24. 삼성전자가 준비하는 차세대 메모리 비전
이번 주 화요일 AMD는 생성형 AI 가속기 'MI300X'를 공개하며 엔비디아의 독주에 제동을 걸었다. 리사 수 CEO는 MI300X가 엔비디아의 'H100'보다 메모리 밀도는 2.4배, 대역폭은 1.6배 높다고 강조했다. 실제로 H100이 120GB의 메모리를 탑재한 데 비해 MI300X는 최대 192GB 메모리를 탑재할 수 있다. 엔비디아와 AMD의 패권 경쟁은 메모리 반도체 가격 하락으로 앞이 캄캄하던 삼성전자와 SK하이닉스에게 한 줄기의 빛처럼 다가왔다. AI 가속기가 처리해야 하는 데이터는 이전과 비교할 수 없을 정도로 많기 때문에 대용량 메모리를 필요로 하고, 그 과정에서 'HBM(High Bandwidth Memory, 고대역폭 메모리)'이라는 게임체인저가 등장했다. HBM이 지나온 길과 나아갈 길을 알면 반도체 시장의 판도가 어떻게 변화할지 가늠할 수 있다.
HBM의 탄생은 무려 15년 전으로 거슬러 올라간다. 2008년 AMD는 컴퓨터의 전력 소모가 증가하는 문제를 해결하기 위해 HBM 아이디어를 제공했고 SK하이닉스와 공동 개발에 착수했다. HBM의 핵심 아이디어는 여러 개의 DRAM을 수직으로 쌓은 뒤 구멍으로 뚫어서 연결하는 것이다. 이렇게 하면 데이터 전송 속도를 획기적으로 높일 수 있으면서도 데이터를 처리하는 과정에서 발생하는 막대한 전력 소모를 줄이는 데에도 효과적이다. 쉽게 말해 기존에는 도로 위의 자동차를 빠르게 이동시키는 방식으로 기술이 발전했다면, HBM은 아예 도로의 폭을 넓혀서 한꺼번에 더 많은 자동차를 병목 현상 없이 이동시킬 수 있는 혁신적인 기술이다. 많은 양의 데이터를 신속하고 안전하게 처리해야 한다면 HBM보다 더 나은 선택지는 현재로서 존재하지 않는다.
사실 몇 년 전만 해도 메모리 반도체의 주요 응용처가 PC와 스마트폰이었기 때문에 대용량 메모리까지 필요하지는 않았고, HBM의 가격도 일반 DRAM에 비해 몇 배 이상 비싸기 때문에 상용화되려면 상당한 기간이 걸릴 것으로 보였다. 하지만 코로나19가 전세계의 디지털 전환을 가속화하면서 데이터센터가 메모리 반도체의 핵심 응용처로 급부상했고, 전력 소모를 줄이는 것이 곧 경쟁력이 되었다. 게다가 ChatGPT가 생성형 AI 열풍을 불러 일으키면서 데이터센터에서 처리해야 하는 데이터의 양도 기하급수적으로 증가했다. 여러 가지 복합적인 상황들이 맞물리면서 HBM의 출격 시기도 앞당겨졌다. 그렇게 2013년 SK하이닉스가 최초의 HBM을 제품으로 개발했고 2015년 HBM2부터 2019년 HBM2E를 거쳐서 2021년 HBM3까지 진화를 거듭했다.
HBM이 전체 DRAM에서 차지하는 비중은 약 1%에 불과하지만, 트렌드포스는 HBM 시장이 2025년까지 연평균 45% 이상 성장률을 보일 것으로 전망하고 있다. 신기술의 성장 속도나 규모를 예측하기 쉽지는 않지만 마이크로소프트와 구글이 치열하게 경쟁하고 있는 인공지능, 테슬라가 주도하고 있는 자율주행, 애플이 진입하고 있는 확장현실 시장의 성장률을 감안하면 HBM 시장도 장기적으로 높은 성장세를 보일 가능성이 매우 높다. 엔비디아와 AMD가 AI 가속기 칩 시장을 양분하고 있는 것처럼 HBM 시장은 대한민국의 삼성전자와 SK하이닉스가 양분하게 될 것이다. HBM의 수요는 지속적으로 증가하는데 HBM을 공급할 수 있는 업체가 제한적이라면 P(가격) 성장과 Q(판매량) 성장이 동시에 나타나며 큰 폭의 이익 개선이 나타날 수 있다.
현재 HBM 시장을 주도하고 있는 기업은 SK하이닉스다. 글로벌 HBM 시장점유율은 SK하이닉스가 50%를 차지하며 가장 앞서있고 삼성전자가 40%, 마이크론이 10%로 뒤따르고 있다. HBM의 선구자인 SK하이닉스는 엔비디아의 H100에 HBM3를, A100에 HBM2E를 탑재하고 있다. 업계 내에서 유일하게 HBM3를 양산하고 있는 SK하이닉스는 올해 하반기 내에 차세대 제품인 HBM3E를 개발하겠다고 밝혔다. 한 발 늦게 진입하긴 했지만 삼성전자 역시 플레어볼트(HBM)-아쿠아볼트(HBM2)-플래시볼트(HBM2E)-아이스볼트(HBM3)를 차례대로 개발하며 메모리 최강자다운 면모를 보였다. 삼성전자는 올해 말 HBM3 양산에 돌입할 예정이며, 차세대 제품인 HBM3P부터 SK하이닉스와의 HBM 기술 리더십 경쟁을 본격화할 것으로 예상된다.
HBM은 K-메모리에 또 다른 가능성을 암시한다. 현재 컴퓨터 구조는 메모리 반도체와 시스템 반도체가 분리되어 있는데, 이를 폰 노이만 구조라고 부른다. 폰 노이만 구조에서는 데이터 연산과 저장이 순차적으로 이루어지기 때문에 데이터가 과부하 상태가 되면 병목 현상에 빠진다. ChatGPT를 사용할 때 문장이 생성되는 속도가 지연되는 것이 데이터 병목 현상의 대표적인 예라고 할 수 있다. 그런데 삼성전자는 PIM(Processing In Memory)이라는 반도체로 이 문제의 해답을 제시했는데, 메모리 반도체가 간단한 연산은 직접 처리할 수 있도록 컴퓨터 구조를 재설계한 것이다. HBM이 한번에 이동할 수 있는 데이터의 양을 늘려주고 PIM이 데이터가 이동하는 거리를 줄여주기 때문에 두 반도체가 결합된 HBM-PIM은 높은 효율성을 자랑한다.
이종호 과학기술정보통신부 장관이 PIM 반도체를 대한민국 반도체의 명운이 달린 프로젝트라고 언급했을 만큼 HBM-PIM은 산업계 뿐만 아니라 대학과 연구기관에서도 관심이 많은 주제이다. 2021년 삼성전자는 HBM-PIM을 최초로 개발했고 기존 AI 시스템보다 성능은 2배 이상 증가하고 전력 소모는 70% 이상 감소했다고 발표했다. 또한 올해 연구 결과에서는 ChatGPT를 비롯한 AI 챗봇의 성능을 무려 3.4배 향상시킬 수 있다고 자신했다. 작년 2월 PIM을 적용한 제품을 출시한 SK하이닉스 역시 HBM-PIM을 메모리 반도체의 차세대 핵심 기술로 보고 개발에 박차를 가하고 있다. HBM-PIM의 개발로 대한민국의 메모리 반도체는 GPU나 CPU를 보조하는 역할에만 그치는 게 아니라 인공지능 시대의 주인공으로 거듭날 수 있게 되었다.
반도체 산업의 패권은 CPU를 지배하고 있던 인텔에서 GPU에 집중했던 엔비디아로 넘어가고 있다. 하지만 GPU는 엄밀히 말해서 인공지능 전용 반도체는 아니다. 따라서 앞으로 반도체 업계가 주목하게 될 분야는 인간의 뇌처럼 정보를 처리할 수 있는 NPU(신경망처리장치)가 될 것이다. 그리고 대한민국 반도체 업계가 수년 동안 연구개발하고 있는 '뉴로모픽'은 PIM에서 한 단계 진화한 형태로 인간의 뇌 신경망 구조를 활용해 여러 가지 데이터를 동시다발적으로 처리할 수 있다. 뉴로모픽이 개발되면 반도체 시장의 모든 논리가 바뀌는 룰브레이커가 될 것이다. 다만 뉴로모픽이 실제로 상용화되면 반도체 업계 뿐만 아니라 인간의 삶 자체에도 커다란 파장을 일으킬 것이다. 인공지능 기술 만큼이나 인공지능이 불러올 미래 또한 고민해야 하는 이유이다.