최신 AI 토픽 뉴스
LG AI 리서치가 6개 국어 지원 및 방대한 정보 처리 능력을 갖춘 초거대 AI 모델 'K-엑사원'의 상세 기술 사양을 발표
원문: https://huggingface.co/papers/2601.01739
LG AI 리서치가 초거대 언어 모델 K-엑사원(K-EXAONE)의 성능과 구조를 담은 기술 보고서를 공개했다. 보고서는 국내 기술로 개발된 인공지능이 글로벌 주요 모델들과 경쟁 가능한 수준에 도달했음을 보여주는 성과로 평가된다.
K-엑사원은 총 2,360억 개 매개변수를 갖추고, 이를 효율적으로 운용하기 위해 Mixture-of-Experts(*) 아키텍처를 적용해 연산 효율과 정확도를 함께 노렸으며, 핵심 강점으로는 대규모 정보 처리 용량이 꼽힌다.
한 번에 25만 6천 개의 토큰(*)을 처리하는 긴 문맥 창을 지원해, 수만 페이지 분량의 문서도 한 번에 입력해 요약·분석할 수 있는 수준이라는 설명이다. 또한 한국어와 영어를 포함해 스페인어, 독일어, 일본어, 베트남어 등 6개 언어를 지원해 다국적 업무 환경에서 활용 가능성을 키웠다.
연구팀은 논리 추론, 상식, 언어 이해 등 다양한 항목으로 성능을 검증. 그 결과, 비슷한 규모의 오픈소스 모델들과 비교해 대등하거나 그 이상의 성능을 보인 것으로 나타났다.
LG AI 리서치는 K-엑사원을 산업 현장의 복잡한 문제 해결과 R&D 등 실사용 가치가 큰 영역에 적용할 계획이며, 이번 보고서 공개는 한국의 기술 주권 확보와 글로벌 경쟁력 강화의 계기가 될 것으로 전망된다.
*1 Mixture-of-Experts (MoE): 질문의 성격에 따라 전체 신경망 중 필요한 부분만 선택적으로 사용하여 처리 효율을 극대화하는 방식임.
*2 토큰 (Token): 문장을 분석하기 위해 나누는 최소 단위로, 한 번에 처리 가능한 개수가 많을수록 긴 문서를 정확하게 이해할 수 있음.
오픈소스 프로젝트 이식에 LLM(*)을 활용할 때 발생하는 법적·윤리적 문제와 실무적 파급 효과에 대한 전문가 분석이 제기되었다.
원문: https://simonwillison.net/2026/Jan/11/answers/#atom-everything
Django 공동 제작자이자 기술 블로거인 사이먼 윌리슨이 Claude Code와 GPT-5.2 같은 고급 코딩 에이전트(*)를 활용한 소프트웨어 라이브러리 이식의 윤리 문제를 짚었다. 윌리슨은 파이썬 코드를 자바스크립트로 옮기는 등 AI 기반 코드 번역이 출처 표기를 유지한다면, 오픈소스 라이선스 체계에서 2차 저작물로 볼 수 있다고 주장했다. 다만 이 같은 속도 향상은 기존 유지보수자에게 허탈감을 줄 수 있는 반면, 신규 참여자에게는 진입 장벽을 낮춰 며칠 걸리던 작업을 몇 시간으로 줄일 수 있다고 분석했다.
논의의 초점은 개발 환경 변화에도 맞춰졌다. AI가 생성한 코드가 확산되면, 기존 서드파티 라이브러리에 대한 의존이 줄어들 수 있다는 관측이다. 윌리슨은 개발자가 기존 라이브러리를 찾아 쓰기보다, Go 언어에서 크론(cron) 표현식을 파싱하는 유틸리티처럼 필요한 기능을 프롬프트로 즉석 생성해 사용하는 흐름이 늘어날 수 있다고 봤다.
한편 검증되지 않은 코드가 유통되는 위험을 관리하기 위해, 정밀한 수동 검토가 부족한 AI 생성 프로젝트를 알파 슬롭(*) 으로 구분하자는 제안도 내놨다. 이는 AI 개발 속도와 상용 소프트웨어에 요구되는 책임 사이의 균형을 잡기 위한 장치로 제시됐다.
*1 LLM: 방대한 데이터를 학습해 인간과 유사한 문장이나 코드를 생성하는 거대언어모델
*2 코딩 에이전트: 자율적으로 프로그래밍 문제를 분석하고 코드를 작성하거나 수정하는 AI 시스템
*3 알파 슬롭: AI가 “그럴듯하게” 만들어낸 코드나 라이브러리인데, 아직 제품 수준으로 검증되지 않은 것을 가리키는 말
LMSYS가 시각 인코딩과 언어 처리를 분리한 3계층 아키텍처를 도입해 초기 토큰 생성 시간을 최대 8배 단축했다.
원문: https://lmsys.org/blog/2026-01-12-epd/
UC Berkeley를 중심으로 한 오픈 연구 조직 'LMSYS'가 알리바바 클라우드, 앤트그룹 SCT 엔지니어들과 함께 SGLang(*)에 인코더-프리필-디코드 분리 구조를 도입했다. 핵심은 VLM(*) 추론 과정에서 이미지 처리와 언어 처리를 분리해, 서로 발목을 잡지 않게 만든 점이다.
기존에는 이 두 구간을 텐서 병렬 처리로 묶어서 함께 키우는 방식이 많았다. 하지만 이 방식은 장비 간 통신이 늘어 오버헤드가 커지고, 상대적으로 작은 시각 인코더까지 언어 모델과 같이 확장해야 해 효율이 떨어지는 문제가 있었다.
EPD(*)는 시각 인코더를 별도 단위로 수평 확장할 수 있게 해, 멀티 이미지 추론처럼 이미지 비중이 큰 작업에서 성능을 끌어올렸다. 시각 임베딩 캐싱으로 같은 이미지를 반복 계산하지 않도록 했고, Mooncake(*) 같은 고대역폭 전송으로 지연도 줄였다. 벤치마크에서는 TTFT(*)를 최대 8배 줄이고, 요청 처리량은 2배 높인 것으로 나타났다. 결과적으로 무거운 시각 작업이 언어 생성 파이프라인을 늦추지 않도록 만드는 모듈형 인프라 방향을 제시했다.
*1 SGLang: 대규모 언어 모델(LLM)·비전언어모델(VLM)을 빠르고 효율적으로 서비스하기 위한 “추론(inference) 프레임워크
*2 VLM: 이미지와 텍스트를 동시에 이해하고 처리할 수 있는 인공지능 모델
*3 EPD: VLM 추론에서 시각 인코딩(Encoder)과 언어 처리(Prefill·Decode)를 분리해 각각 따로 확장·최적화할 수 있게 만든 3단계 구조
*4 Mooncake: EPD 구조에서 시각 임베딩 같은 데이터를 고대역폭·저지연으로 빠르게 전달하기 위한 전송 메커니즘
*5 TTFT(Time To First Token): AI 모델에 요청을 보낸 뒤 첫 번째 토큰이 출력되기까지 걸리는 시간
본 기사는 영어 등으로 작성된 최신 AI 정보를 큐레이션하여 요약 제공하는 비영리 서비스입니다. 원저작자의 저작권을 존중하며, 상세한 내용은 반드시 상단에 첨부된 '원문' 링크를 통해 확인해 주시기 바랍니다.