양자 산업화의 지정학: 2025-2035
[시리즈] 양자 산업화의 지정학: 2025-2035
1화. 산업 개요 - 2025년, 전환점의 해 ← 현재 글
2화. 기술 전쟁 - 초전도 vs 이온 트랩 vs 광자, 누가 승리할 것인가
3화. 보이지 않는 공급망 - 극저온 냉동기에서 제어 칩까지
4화. NVIDIA의 야심 - 양자-고전 하이브리드의 플랫폼 전쟁
5화. 2030년의 풍경 - 시장 전망과 투자 기회
지난 10월, 나는 "AI의 미래: 두개의 엔진"이라는 글을 통해 인공지능의 다음 단계를 이야기했다.
첫 번째 엔진은 GPU를 기반으로 한 클래식 컴퓨팅이었다. NVIDIA의 H100이 ChatGPT를 학습시키고, Stable Diffusion이 이미지를 그려내는 동안, 우리는 그 엔진의 위력을 목격했다.
하지만 동시에 한계도 보였다. 더 거대한 모델을 만들려면 더 많은 GPU가, 더 많은 전력이, 더 많은 돈이 필요했기 때문이다.
그래서 나는 두 번째 엔진을 탐색했다. 양자 컴퓨팅이었다. 나는 양자 컴퓨팅을 조심스럽게 소개했다.
큐비트가 아름답지만 불안정하고, 오류율이 너무 높고, 상용화까지는 아직 먼 길이지만 그 길을 향해 가고 있다는 취지로 이야기했다.
2025년은 UN이 지정한 '세계 양자 과학 기술의 해(International Year of Quantum Science and Technology)'다.
그러면 왜 2025년인가?
정확히 100년 전인 1925년, 독일의 물리학자 베르너 하이젠베르크가 행렬역학을 발표하며 양자역학의 시대를 열었다. 그로부터 56년 후인 1981년, 물리학자 리처드 파인만은 MIT 강연에서 이렇게 말했다.
"자연은 양자적으로 작동한다. 만약 자연을 시뮬레이션하고 싶다면, 양자역학적 컴퓨터를 만들어야 한다."
파인만의 통찰은 단순했지만 혁명적이었다. 분자는 양자역학적 시스템이다. 전자의 위치는 확률로만 존재하고, 화학 결합은 양자 얽힘으로 설명된다.
고전 컴퓨터로 이걸 완벽히 시뮬레이션하는 건 불가능하다. 계산량이 지수적으로 늘어나기 때문이다.
하지만 양자 컴퓨터라면? 양자 시스템을 양자 시스템으로 시뮬레이션하는 것이니 자연스럽다.
2025년은 단순한 기념의 해가 아니다.
하이젠베르크가 양자역학의 문을 연 지 100년, 파인만이 양자 컴퓨팅을 제안한 지 44년이 지난 이 해를 기점으로, 양자 컴퓨팅은 "실험실의 호기심"에서 "산업화의 임계점"으로 전환되고 있다.
자본이 움직이고, 기업들이 로드맵을 구체화하고, 정부들이 국가 전략 기술로 지정하기 시작했다.
첫 번째 엔진이 AI의 현재를 만들었다면, 두 번째 엔진은 AI의 미래를 바꿀 것이다.
그 시동이 지금, 바로 지금 걸리고 있다.
2025년 하반기, 양자 컴퓨팅 산업에서 세 개의 중요한 사건이 일어났다.
각각은 독립적인 뉴스처럼 보였지만, 함께 보면 거대한 흐름이 보인다.
2024년 12월, Google Quantum AI는 'Willow'라는 양자 칩을 공개했다.
수십 개 수준의 큐비트를 탑재한 이 칩의 진짜 의미는 숫자가 아니라 증명에 있었다.
양자 컴퓨터의 가장 큰 적은 오류다. 큐비트가 늘어날수록 오류도 기하급수적으로 늘어난다는 게 정설이었다. 그래서 과학자들은 "양자 오류 정정(Quantum Error Correction, QEC)"이라는 기술을 개발했다.
여러 개의 물리적 큐비트를 묶어 하나의 "논리적 큐비트"를 만들고, 그 중 일부가 틀려도 다수결로 정답을 찾는 방식이다.
문제는 이론과 실제 사이의 간극이었다.
이론적으로는 큐비트를 더 많이 묶을수록 오류율이 줄어야 한다. 하지만 실제로는 큐비트를 묶는 과정 자체에서 오류가 생긴다. 약이 병보다 독한 상황이었다.
Google Willow는 이 벽을 넘었다. 표면 코드(Surface Code)라는 QEC 방식에서, 큐비트 그리드의 크기를 키울수록 논리적 오류율이 유의미하게 감소함을 실험적으로 입증했다.
이는 "QEC threshold를 넘었다"는 것을 의미한다. 이론이 현실이 된 순간이다.
더 놀라운 건 속도다. 물리적 큐비트의 정보 수명(결맞음 시간)은 마이크로초 단위다.
하지만 Willow는 QEC를 통해 논리적 큐비트의 수명을 100 마이크로초 수준으로 끌어올리는 데 성공했다. 양자 정보를 "영구 보존"할 가능성을 열어준 것이다.
같은 시기, 미국의 양자 컴퓨팅 기업 IonQ의 주가가 폭발했다.
2025년 목표였던 #AQ 64 (Algorithm-Qubit 점수 64, 2의 64승 가지의 경우의 수를 다룰 수 있다는 의미) 성능을 3개월 앞당겨 달성했고, 3분기 매출은 전년 대비 200% 이상 성장한 것으로 추정된다. 이러한 성장세가 지속된다면 연간 매출이 1억 달러를 넘어설 가능성도 있다.
시가총액은 일부 시점에서 $10B(약 13조 원) 이상까지 치솟았다.
놀라운 건 밸류에이션이다.
매출 대비 주가 비율(PSR, Price-Sales Ratio)이 수십 배를 넘는다. 반도체 기업 평균이 5-10배인 것을 생각하면 엄청난 프리미엄이다.
왜일까? 투자자들은 IonQ의 장기 로드맵을 보고 있다.
IonQ는 2020년대 후반까지 암호학적으로 의미 있는 규모에 근접하겠다는 공격적인 로드맵을 제시했다.
일부 업계 전망에 따르면, 이는 현재 전 세계가 사용하는 RSA 암호 체계를 위협할 수 있는 수준이다.
물론 이건 목표치다. 하지만 시장은 그 가능성에 베팅하고 있다.
2024년까지만 해도 "양자 컴퓨터는 10년 후"라고 말하던 사람들이, 이제 "2028년"이라는 구체적인 타임라인을 논하기 시작했다.
2025년 11월, AI 반도체의 제왕 NVIDIA가 움직였다.
양자-고전 하이브리드 컴퓨팅을 위한 개방형 인터커넥트 플랫폼을 발표한 것이다.
이건 양자 프로세서(QPU)와 GPU를 초저지연으로 연결하는 표준 인터페이스다.
왜 GPU와 QPU를 연결해야 하는가? 자세한 이유는 4화에서 깊이 다루겠지만, 핵심은 이것이다. 대규모 양자 컴퓨터가 실용화되려면 실시간 오류 정정이 필수인데, 이는 GPU나 전용 ASIC 같은 대규모 병렬 연산 능력을 요구한다.
NVIDIA의 전략은 명확하다. AI 시장을 장악했던 바로 그 플레이북을 양자 컴퓨팅에 복사하는 것이다.
2012년, NVIDIA는 CUDA를 무료로 공개했다. 연구자들은 CUDA로 딥러닝 코드를 짰다. 10년 후, ChatGPT를 학습시키려면 NVIDIA GPU밖에 선택지가 없었다. 2025년, NVIDIA는 CUDA-Q를 무료로 공개했다. 10년 후 양자 컴퓨팅은 어떻게 될까?
실제로 IonQ, Rigetti, Quantinuum, Pasqal 등 주요 양자 하드웨어 기업들이 이미 NVIDIA의 플랫폼 도입을 확정했다. 사실상의 표준(De facto Standard)이 형성되고 있다.
이 세 사건은 각각 다른 의미를 가진다.
Google Willow는 기술적 가능성을 입증했고, IonQ는 시장의 신뢰를 표출했으며, NVIDIA는 생태계 표준화를 시작했다. 합쳐서 보면 양자 컴퓨팅이 "과학"에서 "산업"으로 전환되는 중이다.
양자 컴퓨터를 만드는 건 극한의 엔지니어링이다.
우주보다 차가운 온도, 우주보다 텅 빈 진공, 나노미터 정밀도의 레이저 제어.
이런 극한 환경을 다루는 기업들이 지금 양자 생태계를 구축하고 있다.
2000년대 초반, 핀란드 알토대학교의 한 연구실에서 물리학자들이 문제에 봉착했다.
초전도 큐비트 실험을 하려면 절대영도 근처까지 온도를 낮춰야 하는데, 당시 시판되던 희석 냉동기는 너무 비싸거나 성능이 부족했다. 그래서 그들은 직접 만들기로 했다.
그렇게 탄생한 회사가 Bluefors다. 2008년 창업 당시엔 연구용 장비를 만드는 작은 회사였다.
하지만 2010년대 중반, 양자 컴퓨팅 붐이 일어나자 상황이 바뀌었다. Google, IBM, IonQ 같은 기업들이 앞다투어 양자 컴퓨터를 만들기 시작했고, 모두가 희석 냉동기를 필요로 했다. Bluefors는 이 시장의 주요 공급자가 되었다.
2025년 현재, 다수의 선도적인 양자 컴퓨팅 연구소와 기업들이 Bluefors의 황금빛 샹들리에 같은 냉동기를 사용한다.
Bluefors의 성공은 양자 생태계의 특징을 보여준다. 큐비트를 만드는 IBM이나 Google만이 중요한 게 아니다. 그 큐비트가 작동할 수 있는 극한 환경을 만드는 인프라 기업들이 진짜 돈을 번다.
네덜란드 델프트에서도 비슷한 일이 일어났다.
델프트 공과대학교(TU Delft)의 연구자들은 양자 컴퓨터의 또 다른 문제를 발견했다.
극저온 환경과 상온 제어 장치를 연결하려면 수천 개의 동축 케이블이 필요한데, 이 케이블들이 너무 뻣뻣하고 부피가 커서 냉동기 안에 집어넣기 힘들었다. 게다가 금속 케이블은 열을 전달해서 큐비트를 데우는 부작용도 있었다.
Delft Circuits는 이 문제를 해결하기 위해 Cri/oFlex라는 유연한 케이블을 개발했다.
폴리이미드와 초전도체를 사용해 만든 다중 채널 스트립라인은 기존 케이블보다 열전도율을 획기적으로 낮추면서도 좁은 공간에 수백 개의 신호선을 집적할 수 있었다. 최근 수천만 유로 규모의 투자를 유치하며 양자 시스템 확장성의 핵심 인프라로 주목받고 있다. 큐비트 1,000개 시대를 준비하는 기업들이 모두 이 케이블을 필요로 하기 때문이다.
하지만 하드웨어 인프라만으로는 충분하지 않다. 큐비트를 제어하는 "두뇌"가 필요하다.
이스라엘 텔아비브의 Quantum Machines는 2018년 창업했을 때부터 명확한 비전을 가지고 있었다.
양자 컴퓨터의 병목은 큐비트 자체가 아니라 제어 시스템이라는 것이다.
당시 대부분의 연구실은 FPGA를 직접 프로그래밍해서 큐비트를 제어했다. 하지만 FPGA는 배우기 어렵고, 디버깅은 더 어려웠다. 그래서 Quantum Machines는 OPX라는 제어 시스템을 만들었다.
OPX의 핵심은 펄스 프로세싱 유닛(Pulse Processing Unit, PPU)이다. 이건 FPGA의 복잡성을 추상화하고, QUA라는 고수준 언어만으로 나노초 단위의 정밀한 큐비트 제어를 가능하게 한다.
물리학자는 이제 "큐비트 5번을 X축으로 90도 회전"이라고 쓰면 된다.
OPX가 알아서 4.5GHz 마이크로파를 20나노초 동안 정확한 위상으로 쏜다.
2025년, Quantum Machines는 NVIDIA와 협력해 'DGX Quantum' 시스템을 출시했다.
이것은 OPX 제어 시스템과 NVIDIA의 Grace Hopper 슈퍼칩을 결합한 세계 최초의 통합형 하이브리드 시스템이다. GPU와 QPU 간의 피드백 루프를 수 마이크로초 수준으로 단축했다. 이는 실시간 오류 정정을 가능하게 하는 핵심 성능이다.
한편 큐비트를 만드는 기업들은 각자의 방식으로 미래를 그리고 있다.
IBM은 초전도 방식의 로드맵을 가장 구체적으로 제시하고 있다.
2029년 출시 목표인 'Starling' 시스템은 200개 이상의 논리적 큐비트를 탑재하고, 1억 개 이상의 게이트 연산을 오류 없이 수행할 수 있다고 발표했다. 2033년 이후엔 'Blue Jay' 시스템으로 2,000개 이상의 논리적 큐비트까지 확장한다는 계획이다.
메릴랜드의 IonQ는 다른 길을 택했다.
초전도가 아닌 이온 트랩 방식이다. 진공 챔버 안에서 원자들을 전자기장으로 공중에 띄우고, 레이저로 하나하나 조작한다. 초전도보다 느리지만, 큐비트 간 연결성이 훨씬 좋다. 모든 큐비트가 서로 직접 대화할 수 있다(All-to-all connectivity).
IonQ는 2024년 이테르븀 이온에서 바륨 이온으로 전환하며 게이트 속도와 정확도를 높였다.
바륨 이온은 가시광선 영역의 레이저를 사용하므로 광학 부품의 소형화와 안정성 확보에 유리하다.
캘리포니아 팔로알토의 PsiQuantum은 더 파격적이다. 초전도도, 이온 트랩도 아닌 광자 방식을 택했다.
빛의 입자인 광자를 큐비트로 사용한다.
가장 큰 장점은 상온 동작 가능성과 기존 반도체 제조 공정(CMOS)을 활용할 수 있다는 점이다.
2024년 호주 정부로부터 약 $620M 규모의 보조금과 대출 패키지를 지원받으며 큰 주목을 받았다.
기존 투자자들도 추가 지원에 나서고 있다. 이들의 목표는 100만 개의 물리적 큐비트를 가진 시스템이다.
각 기업의 접근법은 다르지만, 공통점이 있다. 모두 2028-2029년을 향해 달리고 있다는 것이다.
IBM은 Starling을, IonQ는 암호학적으로 의미 있는 규모를, PsiQuantum은 상용 시스템을 그 시점에 출시하겠다고 선언했다. 마치 약속이라도 한 듯 로드맵이 수렴하고 있다.
2019년 10월, Google은 세상을 놀라게 했다.
Nature에 논문을 발표하며 "양자 우위(Quantum Supremacy)" 달성을 선언했다. 53개 큐비트를 가진 Sycamore 프로세서가 세계 최고 슈퍼컴퓨터로 1만 년 걸릴 계산을 200초 만에 해냈다는 주장이었다.
언론은 흥분했다. "양자 컴퓨터 시대 도래", "슈퍼컴 시대의 종말" 같은 헤드라인이 쏟아졌다.
하지만 냉정한 연구자들은 질문했다.
"그 계산이 무엇에 쓸모 있는가?" Google이 시연한 문제는 무작위 양자 회로의 출력을 샘플링하는 것이었다. 학문적으로는 의미 있지만 실용성은 전혀 없었다.
IBM 연구진은 더 날카로운 반박을 내놓았다.
"1만 년이 아니라 2.5일이면 된다." 고전 컴퓨터의 알고리즘을 개선하면 훨씬 빨리 계산할 수 있다는 것이었다. 양자 우위 논쟁은 "우위"의 정의를 둘러싼 철학적 논쟁이 되었다.
하지만 논쟁 이면에 더 중요한 문제가 있었다.
53개 큐비트로는 의미 있는 계산을 할 수 없다는 사실이다. 오류율이 너무 높았다.
Google Sycamore의 게이트 오류율은 약 0.1-1%였다. 100번 연산하면 1번 틀린다는 의미다. 하지만 실용적인 양자 알고리즘은 수백만, 수억 번의 게이트 연산이 필요하다. (0.999)^1,000,000은 거의 0이다. 확실하게 틀린 답이 나온다.
2020년대 초반, 양자 컴퓨팅 연구의 방향이 전환되었다.
"큐비트 숫자 늘리기"에서 "오류 줄이기"로 초점이 바뀌었다.
이 시기를 NISQ(Noisy Intermediate-Scale Quantum) 시대라고 부른다. NISQ는 '노이즈가 많은 중간 규모 양자 컴퓨터'를 뜻하며, 100-500개 큐비트를 가지고 있지만 오류 때문에 제대로 활용할 수 없는 시스템을 의미한다.
IBM은 2021년 127큐비트 'Eagle', 2022년 433큐비트 'Osprey'를 출시했다. 하지만 업계는 큐비트 숫자 늘리기가 의미 없다는 것을 알고 있었다. 오류 정정이 안 되면 1,000개를 만들어도 쓸모없기 때문이다.
전환점은 2023년에 왔다.
Google과 IBM 양쪽에서 동시에 중요한 결과가 나왔다.
Google은 수십 개의 물리적 큐비트를 하나의 논리적 큐비트로 묶는 실험에서, 큐비트 수를 늘릴수록 오류율이 감소하는 현상을 관찰했다. 이론대로였다. 해결책이 문제보다 강해지기 시작했다.
IBM도 유사한 결과를 발표했다. 오류 정정 코드를 적용한 시스템에서 논리적 큐비트의 품질이 물리적 큐비트보다 높아졌다.
그리고 2024년 12월 Google Willow가 나왔다. 표면 코드 방식에서 명확한 오류율 감소를 입증했다. QEC 문턱(threshold)을 넘은 것이다.
이것이 중요한 이유는 이제 큐비트 숫자 늘리기가 의미를 가지기 때문이다.
2019년 53개는 쓸모없었다. 하지만 2025년 이후 1,000개, 10,000개는 다르다.
오류 정정이 작동하면 이 물리적 큐비트들을 수백 개의 논리적 큐비트로 변환할 수 있다. 논리적 큐비트 100개면 의미 있는 계산이 가능하다.
하지만 새로운 문제가 생긴다. 오류 정정에는 비용이 든다.
2010년대에는 큐비트가 10개, 50개일 때 CPU와 FPGA만으로 충분했다. 각 큐비트에 신호를 보내고 응답을 읽고 다음 게이트를 실행하면 되었다. 오류 정정은 필요하지 않았다. 큐비트가 너무 적었기 때문이다.
2020년대 초, 큐비트가 100-500개로 늘어나자 특수 ASIC이 등장했다. Quantum Machines의 OPX 같은 시스템이다. 여전히 오류 정정은 크게 필요하지 않았다. NISQ 알고리즘은 짧은 회로만 실행했기 때문이다.
하지만 2024-2025년 상황이 바뀌었다. QEC threshold를 넘으면서 실시간 오류 정정이 가능해졌다. 동시에 필수가 되었다. 큐비트 1,000개 이상을 제대로 활용하려면 매 순간 오류를 찾아 수정해야 한다.
문제는 이 오류 정정 계산이 매우 복잡하다는 점이다.
수천 개의 큐비트에서 발생하는 오류 패턴을 분석하는 것은 그래프 알고리즘 문제다.
수천 개의 노드와 엣지를 가진 그래프에서 최소 가중치 완벽 매칭(Minimum Weight Perfect Matching)을 찾아야 한다. 그것도 마이크로초 단위로.
FPGA로는 한계가 있다. CPU는 더더욱 부족하다. 필요한 것은 대규모 병렬 연산 능력이다. 바로 GPU나 전용 ASIC이 가진 능력이다.
2025년 NVIDIA가 양자-고전 하이브리드 플랫폼을 발표한 것은 우연이 아니다.
양자 컴퓨팅이 GPU 같은 고성능 병렬 가속기를 필요로 하는 단계에 도달했기 때문이다. 10년 전에는 필요하지 않았다. 5년 전에도 아니었다. 하지만 지금은 다르다. 논리적 큐비트 시대로 가려면 대규모 병렬 연산 능력이 필수다.
2025년 여름, 월스트리트의 한 애널리스트가 리포트를 냈다.
"IonQ: 과대평가인가, 미래 가치의 선반영인가." 계산은 간단했다.
IonQ의 시가총액은 일부 시점에서 $10B를 넘었다. 현재 성장 추세가 지속된다면 연간 매출은 $100M 이상으로 추정된다. PSR(Price-Sales Rate, 주가매출 비율)은 수십 배를 넘는다.
비교를 위해 다른 기업들을 봤다.
NVIDIA는 PSR 약 40배다. 하지만 NVIDIA는 분기 매출이 $300억을 넘는 거대 기업이다. 성장률이 둔화되고 있음에도 AI 붐 덕분에 높은 밸류에이션을 받는다. Intel은 PSR 2배다. 성숙한 반도체 기업의 전형이다.
IonQ의 높은 PSR은 정당한가?
투자자들의 논리는 다음과 같다.
2025년 매출은 중요하지 않다. 2028년을 봐야 한다. 일부 공격적인 업계 로드맵이 현실화될 경우, 양자 컴퓨팅 서비스 시장이 폭발적으로 성장할 수 있다. 금융기관들은 포트폴리오 최적화에, 제약사들은 신약 개발에, 정부는 암호 해독과 보안에 양자 컴퓨터를 사용할 것이다.
IDC는 양자 컴퓨팅 시장이 2025년 $1.5B에서 2029년까지 빠르게 성장할 것으로 전망한다.
McKinsey는 2035년까지 직접 및 간접 시장 규모 합산 시 약 $100B 수준의 잠재력을 전망한다.
만약 IonQ가 이 시장에서 10%만 차지해도 연간 매출 $10B다. 그러면 현재 시총은 1배 PSR이다.
과대평가가 아니라 저평가라는 주장이다.
반대 의견도 있다. 2028년은 아직 3년이나 남았다. 로드맵은 계획일 뿐, 보장이 아니다.
Google이나 IBM이 먼저 논리적 큐비트 시대를 열면 어떻게 되는가? PsiQuantum의 광자 방식이 더 나을 수도 있다. 시장이 너무 앞서가고 있다는 지적이다.
흥미로운 점은 IonQ만이 아니라는 것이다. Rigetti Computing도 일부 시점에서 수십억 달러 수준까지 평가되기도 했지만, 전반적으로 작은 시가총액과 높은 변동성을 가진 소형 상장사다. D-Wave Quantum도 유사한 패턴을 보인다.
이는 양자 컴퓨팅 섹터 전체가 "미래 가치 선반영" 모드에 있다는 의미다.
시장은 2025년 매출이 아니라 2028-2030년 잠재력을 가격에 반영하고 있다. 2000년대 초반 인터넷 버블과 유사한 측면이 있다.
하지만 차이가 있다. 2000년 닷컴 버블 때는 대부분 기업이 비즈니스 모델 자체가 불분명했다.
Pets.com은 개 사료를 온라인으로 팔겠다며 $3억을 조달했다가 9개월 만에 파산했다.
하지만 양자 컴퓨팅 기업들은 다르다. 기술은 실재하고, 로드맵은 구체적이며, 고객도 존재한다. AWS Braket, Azure Quantum을 통해 이미 수백 개 기업이 양자 컴퓨터를 사용하고 있다.
문제는 타이밍이다. 로드맵이 지연되면? 경쟁자가 먼저 도달하면? 그때 밸류에이션은 폭락할 것이다.
2024년 10월, 한 기업이 그 운명을 맞았다.
Zapata Computing이다. 나스닥에 상장했던 이 회사는 순수 소프트웨어 기업이었다. 자체 하드웨어 없이 다른 회사의 QPU에서 돌아가는 알고리즘과 플랫폼을 개발했다. 2021년 SPAC (Special Purpose Acquisition Company) 합병으로 상장했을 때는 기업가치가 $1B 이상이었다.
하지만 문제가 있었다.
하드웨어 파트너십이 약하고 독자적인 IP가 부족했으며 무엇보다 현금 흐름이 없었다.
SPAC 상장으로 받은 자금이 바닥나기 시작했고, 추가 투자 유치에 실패했다. 2024년 초 생성형 AI로 피벗을 시도했지만 이미 늦었다. 그해 10월 상장 폐지되고 운영이 중단되었다.
Zapata의 실패는 중요한 교훈을 남긴다. "양자" 간판만으로는 생존할 수 없다는 것이다.
확실한 기술력, 하드웨어 파트너십 또는 독자 IP, 그리고 지속 가능한 현금 흐름 없이는 2025년의 호황에서도 도태될 수 있다.
반대로 성공 사례도 있다.
PsiQuantum은 호주 정부로부터 $620M 규모의 지원을 받았고, 기존 투자자들의 추가 투자도 유치하고 있다. 이유는 명확한 차별점 때문이다.
기존 CMOS 반도체 공정을 활용한다는 전략은 확장성(Scalability) 측면에서 매력적이다. 100만 큐비트 시스템을 만들려면 대량 생산이 필수인데, 광자 방식은 GlobalFoundries 같은 파운드리와 협력해 양산 체제를 갖출 수 있다. 투자자들은 이 스토리를 샀다.
Quantinuum은 다른 방식으로 신뢰를 얻었다.
Honeywell의 하드웨어 제조 능력과 Cambridge Quantum의 소프트웨어 기술을 결합한 수직 계열화 모델이다. 99.9%의 게이트 충실도는 업계 최고 수준이다. Microsoft와의 파트너십으로 논리적 큐비트 연구를 선도하고 있다. 2024-2025년 누적 약 $900M을 조달하며 $10B 밸류에이션을 받았다.
흥미로운 것은 정부의 역할이다.
미국 정부는 국가 양자 이니셔티브(National Quantum Initiative)를 통해 연간 수억 달러를 투자한다.
호주는 PsiQuantum에 $620M을 지원했다. 독일과 영국도 자국 기업들에 보조금과 대출을 제공한다.
이유는 명확하다. 양자 컴퓨팅을 "국가 전략 기술"로 보기 때문이다.
일부 공격적인 로드맵이 현실화될 경우 양자 컴퓨터가 RSA 암호를 깰 수 있다면, 이는 안보 문제다. 양자 컴퓨터로 신소재를 개발할 수 있다면, 이는 산업 경쟁력이다. 반도체 패권 경쟁처럼 양자 패권 경쟁이 시작되고 있다.
결과적으로 자본은 집중되고 있다. 상위 소수(대략 5-6개) 플레이어에 투자금이 강하게 집중되는 경향이 있다. 나머지는 생존을 위해 니치 시장을 찾거나, 인수합병을 모색하거나, Zapata처럼 사라진다.
2028년이 중요한 이유는 IBM, IonQ, Google의 로드맵이 모두 이 시점을 향해 수렴하기 때문이다.
IBM은 2029년 Starling 시스템으로 200개 이상의 논리적 큐비트를 확보한다. 이는 금융 포트폴리오 최적화나 신물질 발견에서 상업적 ROI를 창출할 수 있는 첫 시점이다. 100M 게이트 깊이는 기존 NISQ 시대의 수천 게이트 수준을 압도한다.
IonQ는 2020년대 후반까지 암호학적으로 의미 있는 규모에 근접하겠다는 공격적인 로드맵을 제시했다. 일부 업계 전망에 따르면, 이는 현재 전 세계가 사용하는 RSA-2048 암호를 위협할 수 있는 수준이다.
Google은 구체적인 연도를 밝히지 않았지만, 연구 로드맵상 2028-2030년 사이에 100개 이상의 논리적 큐비트를 확보할 것으로 예상된다.
몇몇 연구는 수천 수준의 논리 큐비트, 수만~수백만 물리 큐비트면 RSA-2048이 취약해질 수 있다고 추정하지만, 실제 필요한 규모에 대해서는 아직 의견이 크게 갈린다.
이 숫자들이 현실이 되면 어떤 일이 벌어지는가?
금융 산업부터 보자.
현재 JP Morgan, Goldman Sachs 같은 투자은행들은 포트폴리오 최적화에 막대한 컴퓨팅 파워를 사용한다. 수천 개의 자산, 수만 개의 제약 조건을 고려해 최적의 조합을 찾는 문제다. 고전 컴퓨터로는 근사해를 구할 수밖에 없다. 하지만 양자 컴퓨터는 이 조합 공간을 exponentially 탐색할 수 있다. IonQ는 이미 Fidelity와 협력해 PoC(Proof of Concept)를 진행 중이다. 2028년이면 프로덕션으로 전환될 것이다.
신약 개발은 더 극적이다.
새로운 약을 만들려면 분자 구조를 정확히 시뮬레이션해야 한다.
문제는 분자가 양자역학적 시스템이라는 점이다. 전자의 위치는 확률로만 존재하고, 화학 결합은 양자 얽힘으로 설명된다. 고전 컴퓨터로 이를 시뮬레이션하려면 지수적으로 늘어나는 계산량 때문에 작은 분자만 가능하다.
하지만 양자 컴퓨터는 다르다. 리처드 파인만이 말했듯 "양자 시스템을 양자 시스템으로 시뮬레이션"하는 것이기 때문에 자연스럽다.
한국의 Qunova Computing은 자체 발표에 따르면 HI-VQE라는 알고리즘으로 철 포르피린(Iron Porphyrin) 같은 복잡한 분자를 시뮬레이션하는 데 성공했으며, 회사 측은 최대 1,000배 효율 향상을 주장한다(외부 검증은 진행 중). 2028년이면 제약사들이 임상 전 단계에서 양자 컴퓨터를 일상적으로 사용할 가능성이 있다.
하지만 가장 극적인 변화는 암호 체계다.
현재 인터넷 보안의 근간은 RSA 암호다.
큰 숫자를 소인수분해하는 것이 어렵다는 사실에 기반한다. 2048비트 숫자를 인수분해하려면 고전 컴퓨터로 수십억 년이 걸린다. 하지만 1994년 수학자 Peter Shor는 양자 알고리즘 (Shor's Algorithm)을 발표했다. 양자 컴퓨터가 있으면 다항 시간 안에 소인수분해가 가능하다는 것이다.
문제는 얼마나 큰 양자 컴퓨터가 필요한가였다. 초기 추정은 수백만 큐비트였다. 하지만 알고리즘이 개선되면서 필요한 큐비트 수가 줄어들었다. 다만 실제 필요한 규모에 대해서는 연구마다 가정(오류율, 코드, 아키텍처)이 달라서 매우 넓게 분포한다.
일부 업체의 공격적인 로드맵 기준으로는 2020년대 후반이 이 수준에 근접할 수 있다는 시나리오도 제기된다. 실현되면 어떻게 될까?
은행 거래, HTTPS 웹사이트, VPN 연결이 모두 무력화된다. 보안 업계는 이 시점을 "Q-Day"라고 부른다. Quantum Day, 양자 컴퓨터가 현재 암호 체계를 무너뜨리는 날이다.
더 우려스러운 것은 "Harvest Now, Decrypt Later" 공격이다.
지금 암호화된 데이터를 저장해뒀다가 Q-Day가 오면 해독하는 것이다. 2025년에 전송된 정부 기밀 문서도 2028년이면 읽을 수 있다.
NIST(미국 표준기술연구소)는 2024년 양자 내성 암호(Post-Quantum Cryptography, PQC) 표준을 발표했다. 격자 기반 암호, 해시 기반 서명 등 양자 컴퓨터로도 깨기 어려운 새로운 암호 체계다.
하지만 전환에는 시간이 걸린다. 전 세계 모든 서버, 라우터, 스마트폰의 암호 체계를 바꿔야 한다.
업계 추정은 최소 5년이다. 공격적인 양자 로드맵이 현실화된다면 시간이 부족할 수 있다.
SandboxAQ 같은 기업은 이 틈새를 노린다.
기업들이 PQC로 전환하는 것을 돕는 서비스를 제공한다. 현재 어떤 암호 체계를 사용하는지 스캔하고, 어떤 순서로 교체해야 하는지 컨설팅하고, 실제 마이그레이션까지 지원한다. 2025년 현재 이미 수익을 내고 있다. 양자 컴퓨팅이 실제로 암호 위협이 되는 시점이 가까워질수록 이런 서비스 수요는 폭발할 것이다.
양자 컴퓨팅이 가져올 변화는 위협만이 아니다. 기회도 있다.
기후 변화 대응에서 양자 컴퓨터는 새로운 촉매를 설계할 수 있다.
현재 비료 생산은 Haber-Bosch 공정을 사용하는데, 이것이 전 세계 에너지 소비의 1-2%를 차지한다.
상온에서 질소를 고정할 수 있는 촉매를 찾으면 에너지 절감과 탄소 배출 감소를 동시에 달성한다. 이는 분자 시뮬레이션 문제이며, 양자 컴퓨터의 영역이다.
배터리 기술도 마찬가지다. 리튬이온 배터리의 한계를 넘으려면 새로운 전해질, 새로운 음극재가 필요하다. 양자 컴퓨터로 후보 물질을 시뮬레이션하면 개발 기간을 수년 단축할 수 있다.
그리고 AI와의 결합이 있다. "Quantum AI"는 이미 연구 단계를 넘어섰다. 양자 머신러닝(QML) 알고리즘들이 개발되고 있다.
아이디어는 간단하다. 양자 컴퓨터의 exponential state space를 feature space로 사용하는 것이다. 고전 컴퓨터로는 표현할 수 없는 복잡한 패턴을 양자 컴퓨터가 학습한다.
아직 초기 단계다. 하지만 2028년이면 다를 것이다. 논리적 큐비트 100-200개면 의미 있는 QML 실험이 가능하다. GPU와 QPU를 결합한 하이브리드 학습도 시작될 것이다. GPU가 고전적 파라미터를 최적화하는 동안 QPU는 양자 feature를 추출한다.
NVIDIA가 CUDA-Q를 공개한 이유가 여기 있다.
10년 후 양자 AI 모델을 학습시키려면 NVIDIA의 하이브리드 플랫폼이 필요하게 만드는 것이다. ChatGPT가 CUDA 없이 불가능했던 것처럼.
2025년, 양자 컴퓨팅은 더 이상 "먼 미래"가 아니다.
Google은 오류의 벽을 넘었고, IonQ는 시장의 신뢰를 얻었고, NVIDIA는 생태계 표준을 만들기 시작했다.
자본은 수십억 달러 규모로 유입되고, 정부들은 국가 전략 기술로 육성하고 있다. 2028년을 향한 카운트다운이 시작되었다.
하지만 여전히 질문은 남는다. 어떤 기술 방식이 승리할 것인가?
초전도는 빠르지만 극저온이 필요하다. 이온 트랩은 품질이 높지만 느리다. 광자는 상온에서 작동하지만 아직 증명되지 않았다. 중성 원자는 확장성이 좋지만 새로운 방식이다. 양자 어닐링은 지금 사용할 수 있지만 범용이 아니다.
2화에서는 이 기술 전쟁의 현장으로 들어간다.
왜 IBM은 10밀리켈빈이 필요한가? IonQ의 레이저는 무엇을 하는가? PsiQuantum의 광자는 어떻게 큐비트가 되는가? 각 방식의 물리적 구조, 장단점, 2030년까지의 로드맵, 그리고 기업 밸류에이션의 정당성을 다룬다.
물리학과 비즈니스가 만나는 지점에서 미래의 승자를 찾아본다.
Google Willow
- Google Quantum AI. (2024, December 9). "Meet Willow, our state-of-the-art quantum chip." Google Blog. https://blog.google/technology/research/google-willow-quantum-chip/
- Moss, S. (2024, December 9). "Google Debuts New Quantum Chip, Error Correction Breakthrough, and Roadmap Details." HPCwire.
- Wikipedia. (2024). "Willow processor."
https://en.wikipedia.org/wiki/Willow_processor
- IonQ. (2025, February 26). "IonQ Announces Fourth Quarter and Full Year 2024 Financial Results." https://investors.ionq.com/news/news-details/2025/IonQ-Announces-Fourth-Quarter-and-Full-Year-2024-Financial-Results/
- IonQ. (2024, August 8). "IonQ Announces Second Quarter 2024 Financial Results."
- IonQ. (2024). "IonQ Hits #AQ 64 Milestone Ahead of Schedule — And Sets Its Sights Even Higher." https://ionq.com/blog/ionq-hits-aq-64-milestone-ahead-of-schedule-and-sets-its-sights-even-higher
- Quantum Computing Report. (2025, November). "IonQ Reports on Its Q3 2025 Financial Results." https://quantumcomputingreport.com/ionq-reports-on-its-q3-2025-financial-results/
- IBM Quantum. (2025, June). "IBM lays out clear path to fault-tolerant quantum computing." IBM Quantum Computing Blog. https://www.ibm.com/quantum/blog/large-scale-ftqc
- IBM. (2025, June 10). "IBM Sets the Course to Build World's First Large-Scale, Fault-Tolerant Quantum Computer." https://newsroom.ibm.com/2025-06-10-IBM-Sets-the-Course-to-Build-Worlds-First-Large-Scale,-Fault-Tolerant-Quantum-Computer-at-New-IBM-Quantum-Data-Center
- The Quantum Insider. (2025, June 12). "Engineering Fault Tolerance: IBM's Modular, Scalable Full-Stack Quantum Roadmap." https://thequantuminsider.com/2025/06/12/engineering-fault-tolerance-ibms-modular-scalable-full-stack-quantum-roadmap/
- NVIDIA. (2025, October 28). "NVIDIA Introduces NVQLink — Connecting Quantum and GPU Computing for 17 Quantum Builders and Nine Scientific Labs."
https://nvidianews.nvidia.com/news/nvidia-nvqlink-quantum-gpu-computing
- NVIDIA. (2025, November 17). "World's Leading Scientific Supercomputing Centers Adopt NVIDIA NVQLink."
- NVIDIA Technical Blog. (2025, November). "NVIDIA NVQLink Architecture Integrates Accelerated Computing with Quantum Processors."
- HPCwire. (2025, October 28). "Nvidia Introduces NVQLink to Connect Quantum Processors with GPU Supercomputers."
PsiQuantum 호주 정부 지원
- HPCwire. (2024, April 30). "PsiQuantum Partners with Australian Government in $620M Quantum Computing Deal."
- The Quantum Insider. (2024, April 29). "PsiQuantum Receives $940 Million (AUD) From Australian Government."
- Semafor. (2024, April 30). "Australia bets on PsiQuantum, which aims to build first massive quantum computer."
- UN. (2025). "International Year of Quantum Science and Technology 2025."
- NIST. (2024). "Post-Quantum Cryptography Standardization."
https://csrc.nist.gov/projects/post-quantum-cryptography
IDC. (2025). "Worldwide Quantum Computing Forecast, 2025-2029."
McKinsey & Company. (2024). "Quantum technology: Enterprise use cases and market outlook."
작성자 노트: 이 글은 2025년 12월 기준으로 작성되었으며, 양자 컴퓨팅 산업은 빠르게 변화하고 있습니다. 기업 밸류에이션, 재무 수치, 기술 로드맵은 공식 발표 시점 기준이며, 이후 변동될 수 있습니다.