LG엑사원, 작아도 수학, 과학, 코딩에 강합니다.
2025년 3월, LG AI연구원이 ‘엑사원 딥(EXAONE Deep)’을 공개했습니다. 국내 기술로 개발된 초거대 언어모델로서, 한국어 특화와 고정밀 문제 해결 능력이라는 뚜렷한 강점을 갖고 있습니다. 특히 수학, 과학, 코딩 등 전문 분야에서 높은 정확도를 보이며, 향후 교육, 연구, 산업 현장에서의 활용 가능성을 보여주고 있습니다. 반면 글로벌 모델들과 비교했을 때 파라미터 규모, 멀티태스크 처리, 생태계 확장성 등에서는 아직 한계가 존재합니다.
엑사원 딥은 3가지 크기로 공개되었습니다. 가장 큰 ‘엑사원 딥 32B’는 320억 개의 파라미터를 갖고 있으며, 중간 모델은 78억 개, 소형 모델은 24억 개 수준입니다. 반면 GPT-3는 1,750억 개, 중국의 DeepSeek-R1은 무려 6,710억 개의 파라미터를 갖고 있어, 엑사원 딥보다 20배 이상 큽니다. 이처럼 파라미터 수만 놓고 봤을 때 엑사원 딥은 상대적으로 ‘경량형 모델’에 속합니다.
하지만 파라미터 수가 많다고 해서 무조건 성능이 뛰어난 것은 아닙니다. LG는 엑사원 딥이 적은 파라미터로도 수학, 과학, 코딩 등 고난도 문제에 강한 성능을 낼 수 있도록 최적화되었다고 밝혔습니다. 실제로 다양한 테스트에서 높은 정확도를 보였으며, 단순한 정보 생성이 아니라 복잡한 문제 해결 능력을 갖춘 ‘실전형 AI’로서의 가능성을 입증하고 있습니다.
특히 가장 돋보이는 부분은 한국어 특화 성능입니다. 글로벌 LLM들이 주로 영어 데이터를 기반으로 학습된 반면, 엑사원 딥은 한국어 뉴스, 문서, 기술 자료 등을 중심으로 훈련되어 한국어 문법, 높임말, 맥락 해석 등에서 자연스럽고 정확한 결과를 생성합니다. 이는 국내 기업, 공공기관, 교육 현장에서 실제로 적용할 수 있는 AI 모델로서의 실용적 가치를 높여줍니다.
하지만 글로벌 경쟁 모델들과 비교할 때 엑사원 딥의 약점도 분명합니다. 가장 큰 차이는 모델의 규모와 구조입니다. DeepSeek-R1은 6,710억 개의 파라미터에 혼합 전문가(Mixture of Experts) 구조를 적용해, 복잡한 추론과 다중 작업 처리를 효율적으로 수행합니다. 반면 엑사원 딥은 단일 작업 위주의 정밀도에는 강점을 가지지만, 멀티태스크나 범용성 측면에서는 아직 미흡한 수준입니다.
또한 엑사원 딥은 이미지·음성 등 다양한 입력을 동시에 처리할 수 있는 멀티모달 기능이 제한적입니다. 반면 글로벌 최신 모델들은 텍스트뿐 아니라 이미지, 음성까지 함께 다루며 복합적인 사용자 경험을 제공합니다. 이는 대규모 산업용 서비스나 소비자용 인터페이스로의 확장 가능성에서 격차를 만들 수 있습니다.
언어적 범용성 역시 도전 과제입니다. 엑사원 딥은 한국어 기반으로는 우수하지만, 영어를 포함한 다른 언어 처리 능력은 아직 충분히 검증되지 않았습니다. 반면 ChatGPT나 DeepSeek은 다국어에 대한 처리 능력이 확보되어 있으며, 다양한 언어권에서 동시에 사용 가능한 글로벌 플랫폼으로 자리 잡고 있습니다.
또한 DeepSeek은 빠르게 다양한 산업에 적용되고 있으며, AI 코딩 도우미, 문서 요약, 보고서 자동화 등 B2B 응용 사례도 풍부합니다. 엑사원 딥은 아직 산업 현장에서 구체적인 적용 사례나 상용화된 파트너십이 많지 않아, 기술력과 별개로 실제 활용 생태계 측면에서는 한 발 뒤처진 모습입니다.
그럼에도 불구하고, 엑사원 딥의 전략은 매우 현실적입니다. 한국 시장 중심의 언어, 도메인 특화, 경량 고효율 설계는 실제 기업과 공공기관에서의 도입 가능성을 높입니다. 특히 폐쇄망 환경에서 작동 가능한 소형 모델은 보안이 중요한 산업에서 강점을 가질 수 있습니다. ‘크기’보다 ‘정확한 쓰임새’에 집중한 니치 전략이 엿보입니다.
우리가 앞으로 고민해야 할 질문은 명확합니다. AI 기술을 수입해 쓸 것인지, 아니면 우리 언어와 문화를 이해하고 문제를 해결할 수 있는 (소버린) AI를 직접 설계할 것인지입니다. 엑사원 딥은 그 질문에 대한 한국의 첫 번째 본격적인 응답입니다. 기술의 크기만을 따지는 시대는 지나가고 있으며, 이제는 그 기술이 누구를 위해 어떻게 쓰일 수 있는지를 설계하는 시대가 열리고 있습니다.
320억 개와 6,710억 개 파라미터 수 차이는 한국 AI 모델의 현실과 한계를 상징적으로 보여줍니다. 엑사원 딥은 작지만 정확한 전략형 모델의 가능성을 보여줬지만, 이제는 기술의 크기보다 그 구조와 쓰임새가 더 중요해졌습니다. 따라가는 기술이 아닌, 설계하는 기술로 전환할 시점이라는 것을 LG가 보여주고 있습니다.