2026년 1월 17일(토)

최신 AI 토픽 뉴스

by TEUM Lab

LG AI 리서치, 거대 언어 모델 'K-엑사원(K-EXAONE)' 기술 보고서 공개

LG AI 리서치가 6개 국어 지원 및 방대한 정보 처리 능력을 갖춘 초거대 AI 모델 'K-엑사원'의 상세 기술 사양을 발표

원문: https://huggingface.co/papers/2601.01739


LG AI 리서치가 초거대 언어 모델 K-엑사원(K-EXAONE)의 성능과 구조를 담은 기술 보고서를 공개했다. 보고서는 국내 기술로 개발된 인공지능이 글로벌 주요 모델들과 경쟁 가능한 수준에 도달했음을 보여주는 성과로 평가된다.


K-엑사원은 총 2,360억 개 매개변수를 갖추고, 이를 효율적으로 운용하기 위해 Mixture-of-Experts(*) 아키텍처를 적용해 연산 효율과 정확도를 함께 노렸으며, 핵심 강점으로는 대규모 정보 처리 용량이 꼽힌다.


한 번에 25만 6천 개의 토큰(*)을 처리하는 긴 문맥 창을 지원해, 수만 페이지 분량의 문서도 한 번에 입력해 요약·분석할 수 있는 수준이라는 설명이다. 또한 한국어와 영어를 포함해 스페인어, 독일어, 일본어, 베트남어 등 6개 언어를 지원해 다국적 업무 환경에서 활용 가능성을 키웠다.

연구팀은 논리 추론, 상식, 언어 이해 등 다양한 항목으로 성능을 검증. 그 결과, 비슷한 규모의 오픈소스 모델들과 비교해 대등하거나 그 이상의 성능을 보인 것으로 나타났다.


LG AI 리서치는 K-엑사원을 산업 현장의 복잡한 문제 해결과 R&D 등 실사용 가치가 큰 영역에 적용할 계획이며, 이번 보고서 공개는 한국의 기술 주권 확보와 글로벌 경쟁력 강화의 계기가 될 것으로 전망된다.




*1 Mixture-of-Experts (MoE): 질문의 성격에 따라 전체 신경망 중 필요한 부분만 선택적으로 사용하여 처리 효율을 극대화하는 방식임.

*2 토큰 (Token): 문장을 분석하기 위해 나누는 최소 단위로, 한 번에 처리 가능한 개수가 많을수록 긴 문서를 정확하게 이해할 수 있음.




AI를 활용한 소프트웨어 라이브러리의 이식와 관한 윤리와 영향에 관해서

오픈소스 프로젝트 이식에 LLM(*)을 활용할 때 발생하는 법적·윤리적 문제와 실무적 파급 효과에 대한 전문가 분석이 제기되었다.

원문: https://simonwillison.net/2026/Jan/11/answers/#atom-everything


Django 공동 제작자이자 기술 블로거인 사이먼 윌리슨이 Claude Code와 GPT-5.2 같은 고급 코딩 에이전트(*)를 활용한 소프트웨어 라이브러리 이식의 윤리 문제를 짚었다. 윌리슨은 파이썬 코드를 자바스크립트로 옮기는 등 AI 기반 코드 번역이 출처 표기를 유지한다면, 오픈소스 라이선스 체계에서 2차 저작물로 볼 수 있다고 주장했다. 다만 이 같은 속도 향상은 기존 유지보수자에게 허탈감을 줄 수 있는 반면, 신규 참여자에게는 진입 장벽을 낮춰 며칠 걸리던 작업을 몇 시간으로 줄일 수 있다고 분석했다.


논의의 초점은 개발 환경 변화에도 맞춰졌다. AI가 생성한 코드가 확산되면, 기존 서드파티 라이브러리에 대한 의존이 줄어들 수 있다는 관측이다. 윌리슨은 개발자가 기존 라이브러리를 찾아 쓰기보다, Go 언어에서 크론(cron) 표현식을 파싱하는 유틸리티처럼 필요한 기능을 프롬프트로 즉석 생성해 사용하는 흐름이 늘어날 수 있다고 봤다.


한편 검증되지 않은 코드가 유통되는 위험을 관리하기 위해, 정밀한 수동 검토가 부족한 AI 생성 프로젝트를 알파 슬롭(*) 으로 구분하자는 제안도 내놨다. 이는 AI 개발 속도와 상용 소프트웨어에 요구되는 책임 사이의 균형을 잡기 위한 장치로 제시됐다.




*1 LLM: 방대한 데이터를 학습해 인간과 유사한 문장이나 코드를 생성하는 거대언어모델

*2 코딩 에이전트: 자율적으로 프로그래밍 문제를 분석하고 코드를 작성하거나 수정하는 AI 시스템

*3 알파 슬롭: AI가 “그럴듯하게” 만들어낸 코드나 라이브러리인데, 아직 제품 수준으로 검증되지 않은 것을 가리키는 말




이미지와 텍스트를 동시에 처리하는 인공지능 모델의 속도가 8배 향상

LMSYS가 시각 인코딩과 언어 처리를 분리한 3계층 아키텍처를 도입해 초기 토큰 생성 시간을 최대 8배 단축했다.

원문: https://lmsys.org/blog/2026-01-12-epd/


UC Berkeley를 중심으로 한 오픈 연구 조직 'LMSYS'가 알리바바 클라우드, 앤트그룹 SCT 엔지니어들과 함께 SGLang(*)에 인코더-프리필-디코드 분리 구조를 도입했다. 핵심은 VLM(*) 추론 과정에서 이미지 처리와 언어 처리를 분리해, 서로 발목을 잡지 않게 만든 점이다.


기존에는 이 두 구간을 텐서 병렬 처리로 묶어서 함께 키우는 방식이 많았다. 하지만 이 방식은 장비 간 통신이 늘어 오버헤드가 커지고, 상대적으로 작은 시각 인코더까지 언어 모델과 같이 확장해야 해 효율이 떨어지는 문제가 있었다.


EPD(*)는 시각 인코더를 별도 단위로 수평 확장할 수 있게 해, 멀티 이미지 추론처럼 이미지 비중이 큰 작업에서 성능을 끌어올렸다. 시각 임베딩 캐싱으로 같은 이미지를 반복 계산하지 않도록 했고, Mooncake(*) 같은 고대역폭 전송으로 지연도 줄였다. 벤치마크에서는 TTFT(*)를 최대 8배 줄이고, 요청 처리량은 2배 높인 것으로 나타났다. 결과적으로 무거운 시각 작업이 언어 생성 파이프라인을 늦추지 않도록 만드는 모듈형 인프라 방향을 제시했다.




*1 SGLang: 대규모 언어 모델(LLM)·비전언어모델(VLM)을 빠르고 효율적으로 서비스하기 위한 “추론(inference) 프레임워크

*2 VLM: 이미지와 텍스트를 동시에 이해하고 처리할 수 있는 인공지능 모델

*3 EPD: VLM 추론에서 시각 인코딩(Encoder)과 언어 처리(Prefill·Decode)를 분리해 각각 따로 확장·최적화할 수 있게 만든 3단계 구조

*4 Mooncake: EPD 구조에서 시각 임베딩 같은 데이터를 고대역폭·저지연으로 빠르게 전달하기 위한 전송 메커니즘

*5 TTFT(Time To First Token): AI 모델에 요청을 보낸 뒤 첫 번째 토큰이 출력되기까지 걸리는 시간



본 기사는 영어 등으로 작성된 최신 AI 정보를 큐레이션하여 요약 제공하는 비영리 서비스입니다. 원저작자의 저작권을 존중하며, 상세한 내용은 반드시 상단에 첨부된 '원문' 링크를 통해 확인해 주시기 바랍니다.

keyword
매거진의 이전글2026년 1월 16일(금)