brunch

올라마 v0.10.0 소개 및 한국어 지원 LLM모델

deepseek-r1:8b 테스트 with 올라마

by 최재철

이번에 올라마가 2025년 7월 26일 경에 v0.10.0 버젼으로 새롭게 패치되었습니다. 새로운 기능 소개 및

llama3.2 대비 우위에 한국어 지원 모델을 같이 소개하도록 하겠습니다.

https://github.com/ollama/ollama/releases?utm_source=chatgpt.com


newapp.png

주요 기능 및 개선 사항은 다음과 같습니다.

■ 올라마의 새로운 앱 출시

- Ollama의 새로운 앱은 macOS 및 Windows에서 사용 가능합니다. Ollama 다운로드

■ 실행 컨텍스트 길이 표시

- ollama ps 명령어를 통해 모델의 현재 컨텍스트 길이(context length) 를 확인할 수 있도록 개선되었습니다. 이는 세션 관리 및 리소스 최적화에 있어 중요한 가시성을 제공합니다

■ 요청 병렬 처리 기본값 조정

- 동시 요청 처리 수의 기본값이 1로 설정됨으로써 초기화 시 시스템 안정성이 강화되었습니다.향후 병렬 세션 스케일링에 대한 정책 조정을 통해 사용자 편의성을 높일 수 있는 기반이 마련되었습니다


◆ Top 5 한국어 지원 모델 추천 (llama3.2 대비 우위)

1. Bllossom / llama‑3‑Korean‑Bllossom‑8B

서울과기대‑연세대 협업 기반 한국어 강화 bilingual 모델

150GB 정제 한국어 풀 튜닝, LogicKor 벤치마크 10B 이하 모델 중 최고점 획득

한국어, 영어 모두 높은 품질 수행

Ollama에 GGUF 포맷으로 수동 등록 후 사용 가능


2. Trillion‑7B

한국 중심 데이터 최적화 다국어 모델, OpenCompass 등 27개 벤치마크에서 우수한 성능

XLDA 구조 기반 cross-lingual 성능 뛰어남. 토크나이저 최적화 (한국어 포함)

Ollama에 적용 가능 여부는 직접 변환 포맷 확보 시 가능


3. DeepSeek‑R1 시리즈 (예: DeepSeek‑R1‑8B, 14B, 32B)

MOE(mixture-of-experts) 기반 모델로 한국어 포함 다국어 고성능 처리

context window 32k 이상, code와 general 언어 처리 모두 뛰어남

DeepSeek‑R1‑8B 의 경우 Ollama에서 공식 지원


4. Qwen2.5 (예: Qwen2.5‑7B, 32B)

Alibaba Qwen 라인 중 최신 시리즈로, 한국어 포함 동아시아 언어에 대한 지원 강화

특히 큰 모델일수록 다국어 추론력 우수 (32B 이상에서 더욱 높은 성능 가능)


5. Mistral‑Nemo (12B) / Mixtral‑8x7B

Mistral AI 기반 최적화 모델로 긴 context 지원 (128k), 다양한 언어 이해력 우수

일반 텍스트 처리, 번역, 요약 등 다방면에서 높은 퍼포먼스 확인

한국어 자연언어 처리에도 강점 있음.


그 중에서 즉시 사용 가능한 모델 DeepSeek‑R1‑8B 를 가지고 테스트 해 보겠습니다.

다운로드 방법은 기존대로, cmd 창 (터미널) 에서 아래 명령어를 통해서 다운받을 수 있고,


$ ollama pull deepseek-r1:8b


두번째 방법은, 이번에 업그레이드된 방법으로, 윈도우 오른쪽 하단에 트레이 있는 창에서 올라마를 띄우고 [Open Ollama] 메뉴를 클릭합니다.

0.png 올라마 트레이창

그리고 나서, 아래 그림 처럼 "deepSeek‑r1" 입력해서 찾아서 다운받습니다.

1.png 올라마 모델 검색 창

그러면 아래처럼 모델 다운로드 받게 되고, 채팅을 할 수 있게 됩니다. ^^

2.png 모델 다운받는 모습

다음은, 테스트 겸 이순신 장군에 대해서 질문해 보았습니다.

3.png

답변나오기까지 43초정도 소요되었습니다. 로컬 컴퓨터에서 실행을 해서 다소 느린감이 있지만, 나름 한국어로 잘 출력됨을 알 수 있습니다. 간단하게나마 올라마의 새로운 기능과 한국어지원 모델을 알아보았습니다.

keyword
작가의 이전글AI는 교육을 어떻게 바꾸고 있을까?