deepseek-r1:8b 테스트 with 올라마
이번에 올라마가 2025년 7월 26일 경에 v0.10.0 버젼으로 새롭게 패치되었습니다. 새로운 기능 소개 및
llama3.2 대비 우위에 한국어 지원 모델을 같이 소개하도록 하겠습니다.
https://github.com/ollama/ollama/releases?utm_source=chatgpt.com
■ 올라마의 새로운 앱 출시
- Ollama의 새로운 앱은 macOS 및 Windows에서 사용 가능합니다. Ollama 다운로드
■ 실행 컨텍스트 길이 표시
- ollama ps 명령어를 통해 모델의 현재 컨텍스트 길이(context length) 를 확인할 수 있도록 개선되었습니다. 이는 세션 관리 및 리소스 최적화에 있어 중요한 가시성을 제공합니다
■ 요청 병렬 처리 기본값 조정
- 동시 요청 처리 수의 기본값이 1로 설정됨으로써 초기화 시 시스템 안정성이 강화되었습니다.향후 병렬 세션 스케일링에 대한 정책 조정을 통해 사용자 편의성을 높일 수 있는 기반이 마련되었습니다
서울과기대‑연세대 협업 기반 한국어 강화 bilingual 모델
150GB 정제 한국어 풀 튜닝, LogicKor 벤치마크 10B 이하 모델 중 최고점 획득
한국어, 영어 모두 높은 품질 수행
Ollama에 GGUF 포맷으로 수동 등록 후 사용 가능
한국 중심 데이터 최적화 다국어 모델, OpenCompass 등 27개 벤치마크에서 우수한 성능
XLDA 구조 기반 cross-lingual 성능 뛰어남. 토크나이저 최적화 (한국어 포함)
Ollama에 적용 가능 여부는 직접 변환 포맷 확보 시 가능
MOE(mixture-of-experts) 기반 모델로 한국어 포함 다국어 고성능 처리
context window 32k 이상, code와 general 언어 처리 모두 뛰어남
DeepSeek‑R1‑8B 의 경우 Ollama에서 공식 지원
Alibaba Qwen 라인 중 최신 시리즈로, 한국어 포함 동아시아 언어에 대한 지원 강화
특히 큰 모델일수록 다국어 추론력 우수 (32B 이상에서 더욱 높은 성능 가능)
Mistral AI 기반 최적화 모델로 긴 context 지원 (128k), 다양한 언어 이해력 우수
일반 텍스트 처리, 번역, 요약 등 다방면에서 높은 퍼포먼스 확인
한국어 자연언어 처리에도 강점 있음.
그 중에서 즉시 사용 가능한 모델 DeepSeek‑R1‑8B 를 가지고 테스트 해 보겠습니다.
다운로드 방법은 기존대로, cmd 창 (터미널) 에서 아래 명령어를 통해서 다운받을 수 있고,
$ ollama pull deepseek-r1:8b
두번째 방법은, 이번에 업그레이드된 방법으로, 윈도우 오른쪽 하단에 트레이 있는 창에서 올라마를 띄우고 [Open Ollama] 메뉴를 클릭합니다.
그리고 나서, 아래 그림 처럼 "deepSeek‑r1" 입력해서 찾아서 다운받습니다.
그러면 아래처럼 모델 다운로드 받게 되고, 채팅을 할 수 있게 됩니다. ^^
다음은, 테스트 겸 이순신 장군에 대해서 질문해 보았습니다.
답변나오기까지 43초정도 소요되었습니다. 로컬 컴퓨터에서 실행을 해서 다소 느린감이 있지만, 나름 한국어로 잘 출력됨을 알 수 있습니다. 간단하게나마 올라마의 새로운 기능과 한국어지원 모델을 알아보았습니다.