Inception Labs Mercury 논문 분석
끊임없이 발전하는 AI 기술 분야에서는 '더 빠르고, 더 효율적인' 모델에 대한 요구가 항상 존재합니다. 특히, 실시간 상호작용이 필수적인 코드 자동 완성이나 대화형 AI 서비스에서 모델의 응답 속도(latency)는 사용자 경험을 좌우하는 핵심 요소입니다.
최근 Inception Labs에서 공개한 "Mercury: Ultra-Fast Language Models Based on Diffusion" 논문은 이러한 속도의 한계를 돌파할 새로운 가능성을 제시하며 업계의 큰 주목을 받고 있습니다. 본 포스팅에서는 Mercury 모델의 핵심 기술과 그 성능을 살펴보고, 특허 관점에서 어떤 전략적 가치를 가지는지 분석해 보겠습니다.
기존의 대규모 언어 모델(LLM)들은 대부분 첫 단어부터 마지막 단어까지 순차적으로 생성하는 자동회귀(Autoregressive) 방식을 사용합니다. 이는 문맥의 일관성을 유지하는 데는 효과적이지만, 한 번에 하나의 토큰만 처리할 수 있어 속도 향상에 본질적인 한계를 가집니다.
Mercury는 이 패러다임을 전환합니다. 이미지 생성 분야에서 놀라운 성능을 보여준 확산 모델(diffusion model)을 언어에 적용한 것입니다.
Mercury 모델의 생성 방식은 다음과 같이 설명할 수 있습니다.
완전한 무작위 노이즈(random noise) 상태에서 시작하여, 점진적으로 노이즈를 제거하며 의미 있는 문장을 만들어 냅니다.
이 과정에서 Transformer 기반의 신경망이 한 번에 여러 토큰을 병렬적으로 예측하고 수정하여 전체적인 결과물의 품질을 높입니다.
즉, 단어를 하나씩 쓰는 것이 아니라, 문장 전체의 초안을 그려놓고 계속해서 다듬어가는 방식과 유사합니다.
이러한 병렬 처리 능력 덕분에 Mercury는 최신 GPU의 연산 능력을 최대한 활용하여 기존 모델들과는 차원이 다른 속도를 구현합니다.
Inception Labs는 우선적으로 코드 생성에 특화된 'Mercury Coder' 모델을 선보였습니다. 독립 평가 기관인 Artificial Analysis의 분석 결과는 매우 인상적입니다.
압도적인 처리 속도: NVIDIA H100 GPU 환경에서 Mercury Coder Mini는 초당 1,109 토큰, Mercury Coder Small은 초당 737 토큰이라는 경이로운 처리량(throughput)을 기록했습니다66. 이는 기존 속도 최적화 모델들보다 최대 10배 빠른 수치입니다.
뛰어난 코드 생성 품질: 속도를 위해 품질을 희생하지 않았습니다.
'Mercury Coder Small'은 HumanEval 벤치마크에서 90.0점(pass@1)을 획득하며 Gemini 2.0 Flash Lite(90.0점)와 동등한 최상위권 성능을 보였습니다.
'Mercury Coder Mini' 역시 88.0점으로 GPT-4o Mini(88.0점), Claude 3.5 Haiku(86.0점) 등과 어깨를 나란히 했습니다.
실사용자 평가 1위: 실제 개발자들이 모델 선호도를 평가하는 'Copilot Arena'에서 Mercury Coder Mini는 품질 면에서 2위를 차지했으며, 평균 응답 속도는 0.25초로 단연 1위를 기록했습니다.
Mercury의 산업적 가치는 명확합니다. AI 추론 수요가 계속해서 확장되는 가운데, 추론 비용을 크게 절감하여 대규모 AI 배포를 위한 지속 가능한 솔루션을 제공하기 때문입니다.
직접적인 비용 절감: 기존 모델 대비 월등한 처리 속도는 동일 시간 내에 더 많은 요청을 처리할 수 있음을 의미하며, 이는 곧 서버 운영 비용의 직접적인 절감으로 이어집니다.
새로운 시장 창출: 낮은 지연 시간은 실시간 코드 어시스턴트, 복잡한 추론을 수행하는 에이전트, 엣지 컴퓨팅 등 기존에는 속도 문제로 활성화되기 어려웠던 새로운 고부가가치 시장의 문을 엽니다.
개발자 생산성 향상: 코드 LLM 사용 경험이 있는 개발자가 84%에 달하는 상황에서, 빠른 응답 속도는 소프트웨어 개발의 생산성을 극대화하는 핵심 요소가 될 수 있습니다.
"확산 모델 자체는 새로운 기술이 아닌데, 특허가 가능한가?"라는 질문이 있을 수 있습니다. 특허의 독창성은 '존재하지 않던 완전한 새로움'만을 의미하지 않습니다. '기존 기술로는 쉽게 해결할 수 없었던 오랜 과제(open challenge)를 해결'하는 것 역시 중요한 진보성 판단의 근거가 됩니다.
Mercury는 바로 이 지점에서 강력한 독창성을 가집니다.
미해결 과제 해결: 논문 스스로 "확산 모델을 현대적 LLM 규모로 확장하면서 높은 성능을 유지하는 것은 미해결 과제(open challenge)로 남아있었다"고 명시합니다. 이는 Mercury의 기술이 해당 기술 분야의 통상의 기술자가 쉽게 도달할 수 없는 수준의 진보성을 가졌음을 시사하는 강력한 증거입니다.
이종 기술의 성공적 융합: 이미지와 같은 연속 데이터에 주로 쓰이던 확산 모델을, 토큰이라는 이산적인(discrete) 데이터로 구성된 언어에 성공적으로 적용한 것 자체가 기술적 독창성입니다.
플랫폼 기술로서의 가치: 이 기술은 단순히 하나의 모델이 아니라, 기존 자동회귀 모델을 대체할 수 있는 새로운 '플랫폼'을 제시합니다. 이는 다양한 응용 분야로 확장될 수 있어 기술의 권리 범위와 가치를 극대화합니다.
이러한 높은 가치를 지닌 Mercury 기술을 효과적으로 보호하기 위해서는 다음과 같은 다층적이고 입체적인 특허출원전략이 필요합니다.
하나의 포괄적인 특허에 만족해서는 안 됩니다. 핵심과 주변 기술을 모두 포함하는 촘촘한 특허망을 구축해야 합니다.
핵심 특허 (Core Patent): 대규모 언어 데이터에 확산 모델을 적용하여 병렬적으로 텍스트를 생성하는 '기본 알고리즘'과 '학습 방법' 자체를 가장 넓은 범위로 청구하여 원천 기술을 확보해야 합니다.
주변/응용 특허 (Peripheral/Application Patents):
추론 시스템: 병렬 추론을 위한 커스텀 커널, 동적 배치 샘플링 등을 포함하는 '독점 고성능 추론 엔진'을 별도의 특허로 출원해야 합니다. 이는 경쟁사가 모델만 복제해서는 동일한 성능을 낼 수 없게 만드는 강력한 방어벽이 됩니다.
데이터: 웹 크롤링과 독점적 소스로부터 파생된 '특정 합성 데이터셋의 구성 및 생성 방법' 또한 특허로 보호할 수 있습니다.
개량 기술: RLHF나 DPO 같은 정렬 기법을 확산 모델에 맞게 변형한 구체적인 방법, 128k까지 컨텍스트 길이를 확장하는 기법 등 개량 발명들을 지속적으로 출원하여 특허 포트폴리오의 생명력을 연장해야 합니다.
"모델 + 학습 데이터 + 추론 엔진"을 하나의 유기적인 '시스템'으로 묶어 특허를 출원하는 전략이 매우 유효합니다. 이는 경쟁사가 시스템의 일부 요소만 모방하는 것을 효과적으로 차단하고, 훨씬 더 강력하고 넓은 권리 범위를 확보할 수 있게 해줍니다.
Mercury는 확산 모델이 이미지뿐만 아니라 언어의 영역에서도 '게임 체인저'가 될 수 있음을 입증한 중요한 사례입니다. 압도적인 속도와 높은 품질을 양립시킨 이 기술은 향후 AI 시장의 판도를 바꿀 잠재력을 지니고 있습니다.
앞으로 Inception Labs가 이 기술을 어떻게 발전시키고, 경쟁사들이 어떤 방식으로 대응 기술을 내놓을지 그 귀추가 주목됩니다. 관련 기술을 개발하는 우리 기업들 역시 이러한 최신 기술 동향을 면밀히 분석하고, 핵심 기술에 대한 지식재산권 확보 전략을 시급히 마련해야 할 때입니다.
이호준 변리사는 기술 기반 기업의 공공조달 시장 진출을 위한 특허 전략 수립 전문가입니다. 최근 강화된 조달청 우수제품 지정 제도의 변화에 맞춰, 단순한 특허 등록을 넘어 '가치 있는 특허'를 확보하는 전략에 집중하고 있습니다. 이 변리사는 잘 만들어진 '강한 특허' 하나가 기업의 미래를 바꿀 수 있다는 믿음으로, 고객사의 기술이 시장에서 최고의 가치를 인정받을 수 있도록 돕고 있습니다.