LFM은 액체 신경망 원리 기반
리퀴드 AI, 온디바이스 모델 'LFM2' 오픈소스 공개
LFM2의 소소를 공개함으로써, 새로운 아키텍처를 완전히 민주화!
대규모 언어 모델(LLM)과 달리, LFM은 액체 신경망(Liquid Neural Networks, LNNs)의 원리를 기반으로 한다.
(리쿼드 : MIT 컴퓨터 과학 및 인공지능 연구소(CSAIL)에서 스핀오프한 AI 스타트업)
온디바이스 생성형 AI 경험의 새로운 표준 제시액체 신경망(Liquid Neural Networks, LNNs)은 기존의 신경망과는 다른, 좀 더 생물학적 뇌의 유연성과 적응성을 모방하여 설계된 차세대 인공지능 모델이다. 시간의 흐름에 따라 지속적으로 변화하고 외부 환경에 유연하게 적응하는 능력이 가장 큰 장점이다.
LFM2는 CPU에서 알리바바 큐원 3(Qwen3), 구글 젬마(Gemma 3n Matformer) 및 현재까지 사용 가능한 다른 모든 트랜스포머 및 비트랜스포머 기반 자동 회귀 모델에 비해 200% 더 높은 처리량과 더 낮은 대기 시간을 보여준다.
평균적으로 명령어 추종 및 함수 호출(신뢰할 수 있는 AI 에이전트를 구축하는 데 있어 LLM의 주요 속성)에서 각 크기 클래스의 모델보다 훨씬 더 나은 성능을 발휘한다.
LFM2는 품질, 속도, 메모리 효율성 면에서 새로운 기준을 제시하며 로컬 및 엣지 컴퓨팅에 이상적으로 경쟁 모델인 Qwen3 대비 CPU에서 2배 빠른 디코드 및 프리필 성능을 자랑한다
LFM2 특징은
혁신적인 설계로 속도와 효율성 향상을 가져왔다.
첫 번째 특징은, 새로운 하이브리드 Liquid 모델 아키텍처을 제시한다.
이 모델은 곱셈 게이트(multiplicative gates)와 짧은 컨볼루션(short convolutions)을 통합하며, 10개의 이중 게이트 단거리 컨볼루션 블록과 6개의 그룹화된 쿼리 어텐션 블록으로 구성된 총 16개의 블록을 포함한다.
두 번째로 다양한 하드웨어에 유연하게 배포될 수 있다.
CPU, GPU, NPU(신경망처리장치)에서 효율적으로 작동하여 스마트폰, 노트북, 차량등 광범위한 기기에 적합하다
리퀴드 AI는 아키텍처 최적화 배포 엔진을 포함하는 풀스택 솔루션을 제공하여 프로토타입에서 제품출시까지의 과정을 가속화한다
세 번째, 효율적인 AI 에이전트를 구동하는 데 이상적이다.
비용 효율적인 학습으로 리퀴드 AI의 이전 세대 대비 3배 향상된 학습 효율성을 강조했다.
리퀴드 AI는 LFM2의 소소를 공개함으로써, 새로운 아키텍처를 완전히 민주화 했다. LFM2의 웨이트는 이제 허깅페이스에서 사용할 수 있으며 테스트를 위해 리퀴드 플레이그라운드(Liquid Playground-보기)를 통해서도 사용할 수 있다..
리퀴드 AI 모든 장치를 로컬에서 AI 장치로 전환하는 안전한 엔터프라이즈급 배포 스택을 갖춘 극도로 효율적인 소형 멀티모달 기반 모델을 제공한다. 이를 통해 리퀴드 AI는 기업들이 클라우드 LLM에서 비용 효율적이고, 빠르고, 프라이빗한 온 프레미스 인텔리전스로 전환함에 따라 시장에서 큰 점유율을 확보할 수 있는 기회를 얻을 수 있다.
출처 : 인공지능신문 핵심 내용 요약
[AI 이슈] 리퀴드 AI, 세상에서 가장 빠르고 강력한 온디바이스 모델 'LFM2' 오픈소스로 공개 < 자연어 < AI Tech < 기사본문 - 인공지능신문