파도가 밀려오듯 인공지능(AI)이 생활 속으로 다가오고 있다. 20세기를 컴퓨터의 세대로 본다면, 21세기는 인공지능의 세대로 볼 수 있다. 20세기 중반에 등장한 컴퓨터는 반세기 만에 필수품이 되었고, 그 쓰임새가 날로 발전하며 불가능하다고 여겨지던 여러 영역에까지 들어오고 있다.
컴퓨터의 등장과 함께 발전해 오던 AI가 본격적으로 주목받기 시작한 것은 최근의 일이다. 2016년 한국 바둑의 왕 이세돌을 DeepMind의 AlphaGo가 4 대 1로 이기면서 AI의 능력이 부각되었고, 2020년에는 Google의 BERT와 OpenAI의 GPT가 인간의 '자연 언어'를 습득하는 능력을 보이기 시작했다. 이어 2024년에는 DeepMind의 AlphaFold가 단백질 구조 예측 성과로 생명과학 분야에서 노벨상을 수상하기도 했다. 뿐만 아니라 정보, 영상, 이미지, 로봇, 의료, 건강, 상담, 예술, 보안, 군사 등에서도 놀라운 발전을 거듭하고 있다.
AI 기술의 발전은 AI 컴퓨터의 발전과 함께한다. AI 컴퓨터는 GPU(Graphics Processing Unit)를 중심으로 수천 개의 코어(core)를 연결해 구성되며, 방대한 자료를 병렬적으로 동시에 처리한다. 대표적인 기업으로는 NVIDIA의 GPU와 Google TPU를 들 수 있다.
이에 반해 기존 대형 컴퓨터는 CPU(Central Processing Unit)를 중심으로 은행, 항공, 정부 기관 등에서 사업 운영에 필요한 데이터베이스를 구축하고, 주어진 틀에 따라 정보를 빠른 속도로 직렬 처리한다. 대표적인 기업으로는 IBM, UNIVAC 등이 있다.
CPU 기반 대형 컴퓨터와 GPU 기반 AI 컴퓨터는 상호 배타적이라기보다 상호 보완적 관계로 보아야 한다. 예를 들어 이세돌과 대국한 DeepMind의 AlphaGo는 48개의 CPU와 8개의 GPU로 구성된 강력한 분산 시스템이었으며, Apple과 AMD는 CPU와 GPU를 하나로 통합한 새로운 칩(chip) 기술을 선보이고 있다.
AI 컴퓨터의 핵심인 GPU는 처음에는 생소하게 느껴질 수 있지만, 사실 이는 게임·그래픽 카드의 발전과 깊은 관련이 있다. 게임·그래픽 카드는 1980년대 초 Atari와 Commodore에서 2D 그래픽 게임용으로 시작되었고, 1990년대에는 3D로 발전했으며, 2000년대에는 NVIDIA에 의해 GPU로 자리 잡았다. 이후 GPU는 지속적으로 진화하여 2010년대에는 AI와 결합되었고, 2016년 Google에서 개발한 텐서-행렬 연산(tensor/matrix math)에 기반을 둔 TPU(Tensor Processing Unit)와 함께 AI 컴퓨터의 중심으로 자리 잡았다.
지난 수십 년간 컴퓨터의 등장과 인터넷 기술의 발전은 신문, 방송, 도서관, 서점, 사진기, 필름 현상 등 다양한 산업 구조에 큰 영향을 미쳤다. 같은 이치로 AI의 등장이 앞으로 산업 구조에 미칠 영향도 매우 클 것으로 보인다. 다만 미래를 예측하는 일은 결코 쉽지 않다. 현재 위치를 정확히 파악할 때 비로소 미래를 보다 정확하게 전망할 수 있다.
사실 인공지능(AI)이 없어도 인간은 살아갈 수 있다. 컴퓨터 없이 살아왔던 것처럼 말이다. 그러나 통신과 교통의 발달은 지구촌을 형성했고, 먼 나라가 이웃 나라처럼 가까워졌으며 해외여행은 사치가 아닌 일상의 한 부분이 되었다. 이러한 변화 속에서 언어 장벽, 노동력 감소, 의료-미디어 발전 등 새로운 형태의 과제가 뒤따르게 되었다.
'필요는 발명의 어머니'라는 속담이 있듯, 이러한 문제들을 해결하기 위한 시작점으로 ChatGPT, 자율주행, 로봇 등 인공지능(AI)이 대두되었고, 그 파급 효과는 기하급수적으로 확대되어 이제는 우리의 생활권 깊숙이 들어오고 있다.
컴퓨터는 CPU(중앙처리장치), 주기억장치(메모리), 보조기억장치, 입출력장치의 네 가지 요소로 구성된다. CPU(Central Processing Unit)는 컴퓨터의 두뇌 역할을 하는 부분으로, 주어진 명령을 해석하고 실행하며, 운영체제와 정보 처리 및 전반적인 작업을 총괄한다.
21세기에 들어 그래픽 사용이 증가하면서 직렬 처리 방식의 CPU 중심 컴퓨터는 처리 속도에서 한계를 드러내고 있다. 이에 대한 해결책으로 떠오른 것이 수천 개의 코어(core)를 병렬적으로 작동시키는 NVIDIA의 GPU(Graphics Processing Unit)와 Google의 TPU(Tensor Processing Unit)이다. 예를 들어 그래픽 인식에서 GPU의 처리 속도는 CPU보다 10배 이상 빠르고, TPU는 30배 이상 빠르다. 자연 언어 처리의 경우 GPU는 CPU보다 30배, TPU는 150배 이상 빠르다.
가로세로 19줄 바둑판에서 가능한 바둑의 경우의 수는 약 10^768에 이른다. 이는 361! = 361 × 360 × 359 × ⋯ × 3 × 2 × 1 ≈ 1.4379 × 10^768로 계산된다. 이 수치는 인간 두뇌의 신경세포 수 약 10^11(약 1,700억 개)이나, 우주에 존재하는 별의 총수로 추정되는 약 10^28과 비교할 때 그 규모를 짐작할 수 있다.
2016년 한국 바둑 최강자 이세돌과의 대국을 준비하기 위해 Google DeepMind는 1,200개의 CPU와 176개의 GPU를 활용해 시스템을 구축했으며, 실제 경기에서는 48개의 CPU와 8개의 GPU가 사용되었다.
AI 가속기(AI Accelerator)는 머신러닝과 딥러닝 연산을 더 빠르고 전력 효율적으로 수행하기 위해 설계된 특수 목적 하드웨어 칩이다. 이러한 가속기는 GPU, TPU, FPGA, ASIC 등의 칩을 병렬로 연결하여 대규모 신경망 모델의 학습(Training)과 추론(Inference) 과정을 빠르고 효율적으로 처리할 수 있도록 구성된다.
AI 가속기 칩은 방대한 연산을 최적화하여 모델 학습 시간을 단축하고 에너지 사용량을 절감할 수 있다. 대표적인 제품으로는 AMD Instinct 시리즈, NVIDIA H100, H200, Google TPU 등이 있다.
최근에는 이러한 AI 가속기가 클라우드와 데이터센터에서 대규모 생성형 AI 모델(예: GPT, Stable Diffusion, LLM 등)의 학습 및 서비스 제공을 위한 핵심 인프라로 활용되고 있다.
블랙웰 B300은 엔비디아의 차세대 AI 가속기로, 고성능 연산과 에너지 효율을 강화해 대규모 AI 학습과 추론에 최적화되어 있다. 데이터센터와 고성능 컴퓨팅 환경에서 활용되며, 트랜스포머 모델 처리 속도를 크게 높인다.
EUV 노광장비는 극자외선(EUV)을 이용해 반도체 회로를 미세하게 새기는 핵심 장비로, 2nm 이하 공정 구현에 필수적이다. 고해상도·고정밀 패터닝을 통해 칩 성능과 집적도를 높인다. 하이엔드 EUV 노광장비는 초미세 공정용 첨단 반도체 제조 장비로, 2nm 이하 회로를 정밀하게 구현할 수 있다. 고해상도와 정밀도를 갖춰 차세대 고성능 칩 생산에 필수적이다.
로직 다이(Logic Die)는 반도체 패키지에서 연산을 담당하는 핵심 칩으로, AI와 고성능 컴퓨팅 분야에서 중요한 역할을 한다. 메모리와 함께 2.5D·3D 적층 기술로 결합되어 데이터 전송 지연을 줄이고 성능을 높인다. 특히 2nm 이하 공정이 적용된 로직 다이는 HBM과 통합돼 AI 칩의 처리 속도와 효율을 극대화하는 핵심 기술로 주목받고 있다.
**2nm(나노미터)**는 반도체 공정에서 트랜지스터의 게이트 길이를 나타내는 차세대 초미세 공정이다. 1nm = 10억분의 1미터로, 2nm 공정은 현재 상용화된 기술 중 가장 앞선 수준 중 하나이다. 2nm 공정을 적용하면 트랜지스터를 더 많이 집적할 수 있어 연산 속도는 빨라지고, 전력 소모는 줄어든다. 이러한 미세 공정은 특히 **로직 다이(Logic Die)**에서 중요하며, AI 칩과 고성능 컴퓨팅 칩의 처리 효율을 극대화하는 데 핵심 기술로 활용된다. 삼성전자, TSMC, 인텔 등 주요 반도체 기업이 2nm 공정 상용화를 추진하고 있다.
HBM(High Bandwidth Memory)은 여러 개의 D랩(DRAM) 칩을 수직으로 적층하여 기존 메모리보다 훨씬 빠른 데이터 처리 속도를 구현하는 고성능 메모리 반도체를 의미한다. 이러한 적층 구조는 데이터 전송을 위한 넓은 통로(고대역폭)를 확보함으로써, 대규모 연산과 빠른 데이터 이동이 요구되는 환경에서 뛰어난 성능을 발휘한다.
HBM은 특히 인공지능(AI) 학습 및 추론, 고성능 그래픽 처리, 데이터센터 서버, 슈퍼컴퓨터 등에서 핵심 기술로 활용된다. 전통적인 GDDR(Graphics DDR) 메모리 대비 전력 효율이 높고, 데이터 처리 지연(latency)이 낮아 대규모 데이터 집약적 작업에 적합하다. 또한, HBM의 3D 적층 구조와 인터포저(interposer) 기술을 결합하면, 메모리와 프로세서 간의 데이터 통신 속도를 극대화할 수 있어 GPU, AI 가속기, HPC(High-Performance Computing) 시스템 성능 향상에 필수적이다.
결과적으로 HBM은 단순히 메모리 용량을 높이는 것에 그치지 않고, 연산 속도, 전력 효율, 공간 효율을 동시에 개선하여, 최신 AI 및 고성능 컴퓨팅 환경에서 필수적인 기술로 자리잡고 있다.
** D랩(DRAM: Dynamic Random Access Memory)**은 컴퓨터와 서버, 스마트폰, AI 칩 등에서 가장 널리 사용되는 **주기억장치(메모리)**이다. ‘Dynamic’이라는 이름처럼 일정 주기마다 **재충전(refresh)**이 필요하며, 전원이 꺼지면 데이터가 사라지는 휘발성 메모리이다.
** GDDR(Graphics DDR) 메모리는 그래픽 카드에 사용되는 고성능 D램(DRAM)의 한 종류로, 일반적인 DDR 메모리와 달리 그래픽 렌더링을 위한 대량의 데이터 처리에 최적화되어 있다.
** DDR(Double Data Rate) 메모리는 클럭 신호의 양쪽 엣지를 모두 사용해 같은 시간 동안 더 많은 데이터를 전송한다.
Cloud는 인터넷 기반으로 컴퓨팅 자원, 스토리지, 데이터베이스, 소프트웨어 등을 제공하는 서비스이다. 사용자는 원격에서 서버나 인프라를 직접 운영하지 않아도 되며, 사용량 기반 과금 체계를 활용할 수 있고, 필요에 따라 쉽게 확장(Scale-up/Scale-out)할 수 있다. 대표적인 예로 AWS, Microsoft Azure, Google Cloud, OpenAI API 등이 있으며, 개발자나 기업이 인프라 관리 부담 없이 애플리케이션, AI 모델, 데이터 처리 등을 실행하도록 지원하는 것이 핵심 목적이다.Hub는 단순한 서버 제공을 넘어 여러 시스템, 서비스, 데이터, 사용자, 기관을 연결하고 통합하는 중심 플랫폼을 의미한다.
반면, Hub는 데이터, 소프트웨어, 인프라, 협력사 등 다양한 자원을 통합하여 연구, 협력, 상용화 등 다양한 활동을 지원하며, 참여자 간 공유와 협업을 촉진하는 역할을 한다. 예를 들어 Stargate는 AI 산업 허브로서 단순한 컴퓨팅 제공을 넘어 반도체, 데이터센터, 전력, 금융 인프라와 연구기관 및 기업을 연결하는 복합적 플랫폼 기능을 수행한다.