저비용 고효율 AI, 하지만 안정성은 글쎄..
중국이 공개한 인공지능 챗봇 딥시크(DeepSeek)가 화제다.
딥시크는 Open AI의 10분의 1 비용으로 개발되었다고 하며, 공개되자마자 하루만에 엔비디아의 시총 약 850조원을 날렸다.
하지만 딥시크(DeepSeek)가 공개한 AI 모델 'R1'이 주목받는 이유는 단순히 저비용이 아니다.
기존 AI 개발의 정도(征途)를 바꾸는 획기적인 접근 방식 때문이다.
딥시크의 AI 모델 R1의 핵심은 MoE(Mixture-of-Experts) 아키텍처에 있다.
특정 작업에 필요한 AI 모듈만 선택적으로 활성화하는 방식으로, 6710억 개에 달하는 전체 파라미터 중 340억 개만 사용하면서도 ChatGPT와 유사한 성능을 보인다.
이러한 접근법의 장점은 명확하다. 메모리 사용량을 90%까지 줄일 수 있으며, 작업 속도도 현저히 빨라진다.
딥시크는 여기서 한 걸음 더 나아갔다.
지도 학습을 줄이고 강화 학습에 집중함으로써 AI의 자체 추론 능력을 강화했다.
'정확도 보상(Accuracy Rewards)' 시스템을 도입해 AI가 스스로 답을 찾아갈 수 있도록 설계한 것이다.
또 특이한 점은 딥시크는 AI 모델을 MIT 라이센스로 공개해, 개발자들이 자유롭게 사용할 수 있도록 했다.
그러면서, 개발 과정에서 생기는 버그나 오류 등을 개선해 더 탄탄한 AI 모델을 구축할 수 있게되었다.
이렇게 기존 AI 개발과 다른 방식으로 기존의 AI 챗봇을 위협하는 딥시크지만, 중국의 초창기 모델이다 보니 여러 우려가 존재한다. 개인 정보 유출 우려에 대해 온 나라가 촉각을 곤두세우고 있고, 특히 오픈AI의 학습 데이터 무단 사용 의혹으로 오픈 AI는 총 개발 비용에 대한 재검토를 요구하고 있다.
딥시크의 R1은 AI 개발에 있어 '효율성'이라는 새로운 화두를 던졌다.
더 적은 자원으로 동등한 성능을 달성하는 것이 가능하다는 것을 보여준 것이다.
Chat GPT도 그랬듯, 상용화 되고, 사용성이 검증되기 전까지는 사용하기는 어려울 것 같다.
개인정보를 최대한 배제하고 사용하는 것이 기본이긴 하지만, 딥시크가 사용자의 어떤 정보까지 수집하는지 아직 알 수 없기 때문에 아직은 Chat GPT나 클로드를 사용할 예정이다.
그래도 중국은 적은 비용으로, 신기술을 잘 만들어내는 것 같아 놀랍다.