최근 중국 기업 Deep Seek이 선보인 R1 언어 모델에 대해 좀 더 알아볼 기회가 있었다. 놀라운 점은 기존 대형 언어 모델들보다 훨씬 적은 컴퓨팅 자원으로 경쟁력 있는 성능을 보여준다는 것이다. Deep Seek 팀이 공개한 기술 보고서를 통해 이들이 어떻게 이런 혁신을 이루어냈는지 살펴보며 몇 가지 통찰을 얻었다.
Deep Seek 팀이 2024년 6월에 소개한 'Multi-head Latent Attention'이라는 기술은 단순한 주변부 개선이 아닌, Transformer 아키텍처의 핵심을 변화시켰다. 이 기술은 'key-value cache'라는 중요한 병목 지점의 크기를 57배나 줄여, 텍스트 생성 속도를 6배 이상 높였다.
이런 접근법은 알고리즘 설계에서도 중요한 교훈을 준다. 때로는 주변부 최적화보다 핵심 구조를 재고하는 것이 훨씬 큰 성과를 가져올 수 있다. 다시 말해, 기존 프로세스의 부분적 개선보다 근본적인 아키텍처를 재고하는 것이 혁신의 열쇠가 될 수 있다.
대형 언어 모델에서 핵심 문제 중 하나는 계산 비용과 메모리 사용량 사이의 균형이다. 모델이 텍스트를 생성할 때, 각 새로운 token(단어 조각)은 이전의 모든 token을 고려해야 한다. 이 과정에서 'attention pattern'이라는 행렬을 계산하는데, 이 행렬의 크기는 입력 token 수의 제곱에 비례한다.
이 문제를 해결하기 위해 'KV caching'이라는 기법을 사용한다. 이는 이미 계산된 key와 value를 메모리에 저장해 재활용하는 방식이다. 이로써 계산량은 줄지만, 메모리 사용량은 늘어난다. 예를 들어, Deep Seek R1 아키텍처에서 10만 token의 입력을 처리하려면 400GB에 달하는 메모리 접근이 필요하다.
이는 업무 프로세스에서도 유사한 통찰을 준다. 어떤 작업에서 시간(계산)과 공간(메모리) 사이의 균형을 잘 맞춰야 효율성이 극대화된다. 때로는 더 많은 공간을 활용해 시간을 절약하는 전략이 효과적일 수 있다.
Deep Seek의 혁신은 '압축'과 '공유'라는 두 가지 원칙에 기반한다. Multi-head Latent Attention은 key와 value를 압축된 latent space로 투영한 후, 이 압축된 정보를 attention head 간에 공유한다. 그러나 단순한 공유가 아니라, 각 head가 이 압축된 정보를 자신만의 방식으로 해석할 수 있게 했다.
이 접근법은 'multi-query attention'이나 'grouped-query attention'과 같은 기존 방식보다 유연하고 효율적이다. Deep Seek R1은 token당 4MB의 캐시가 필요했던 기존 방식을 70KB로 줄였다 - 57배 감소.
이런 원리는 팀 협업에도 적용된다. 정보를 효과적으로 압축하고 공유하면서도, 각 팀원이 그 정보를 자신의 관점에서 해석하고 활용할 수 있게 하는 것이 효율적인 협업의 핵심이다.
Deep Seek 팀은 선형대수학을 활용해 계산 단계를 재배열함으로써 추가 계산 없이 메모리 사용량을 줄였다. 새로운 token이 들어올 때, query 벡터와 latent cache space로의 투영을 동시에 계산하고, latent key-value cache 행렬에서 직접 attention pattern을 계산한다.
이는 복잡한 문제에 직면했을 때 문제 자체를 다시 구조화하거나 재정렬하는 것의 중요성을 보여준다. 때로는 문제 해결 방법을 바꾸는 것보다, 문제 자체를 다르게 표현하는 것이 더 나은 해결책을 가져온다.
Multi-head Latent Attention의 진정한 혁신은 모델이 스스로 key와 value를 효율적으로 압축하는 방법을 학습한다는 점이다. 이 방식은 단순히 정보를 공유하는 것이 아니라, 모델이 attention head 간에 정보를 최적으로 압축하고 공유하는 방법을 스스로 찾아낸다.
이 원리는 조직 학습에도 적용된다. 단순히 정보나 지식을 공유하는 것을 넘어, 조직이 스스로 핵심 지식을 압축하고 효율적으로 전파하는 방법을 개발하는 것이 중요하다.
Deep Seek R1의 사례는 잘 설계된 알고리즘이 얼마나 강력한 효율성 향상을 가져올 수 있는지 보여준다. Transformer 아키텍처는 현대 AI 역사에서 가장 중요한 혁신 중 하나인데, Deep Seek은 이를 더욱 효율적으로 만들었다.
이는 우리에게 중요한 교훈을 준다. 때로는 기존 시스템의 핵심 구조를 재고하고, 계산과 메모리 사이의 균형을 맞추며, 정보의 압축과 공유 방식을 최적화하는 것이 혁신의 열쇠가 될 수 있다. 그리고 이런 작은 변화가 때로는 가장 큰 영향을 미친다.
Deep Seek 팀이 2024년 보고서를 통해 보여준 체계적인 개선 과정은, 수억 달러의 R&D와 인프라 비용이 투입된 모델들을 크게 향상시킬 수 있음을 보여준다. 기술 발전의 다음 단계가 어떤 아이디어를 통해 이루어질지 지켜보는 것은 정말 흥미로운 일이 될 것이다.