1995년생의 중국 AI 조사자로, 현재 30세 정도 "AI 신동" 또는 "AI 괴물소녀"로고 있습니다. 그는 중국 AI 스타트업 딥시크(DeepSeek)의 혁신적인 모델 개발에 핵심적인 역할을 한 인물입니다.
1. 서론: 아키텍처의 시대와 중국의 "95허우(95後)"
2023년 이후 글로벌 인공지능(AI) 경쟁의 양상은 단순한 '데이터의 규모' 싸움에서 '효율성의 아키텍처' 싸움으로 급격히 전환되었다. OpenAI가 촉발한 거대언어모델(LLM)의 캄브리아기 대폭발 속에서, 중국은 미국의 하드웨어 제재(GPU 수출 통제)라는 실존적 위기에 직면했다. 이러한 제약 조건은 역설적으로 중국 AI 연구계에 극단적인 효율성을 추구하는 엔지니어링 문화를 태동시켰으며, 그 중심에는 1995년생 여성 엔지니어 뤄푸리(Luo Fuli)가 있다.
뤄푸리는 학계의 상아탑에 머무르지 않고 알리바바(Alibaba)의 달마원(DAMO Academy), 퀀트 헤지펀드 기반의 딥시크(DeepSeek), 그리고 소비자 가전의 거인 샤오미(Xiaomi)를 거치며 현대 중국 AI의 가장 중요한 기술적 변곡점들을 직접 설계했다. 특히 그녀가 DeepSeek에서 주도적으로 개발한 MLA(Multi-Head Latent Attention) 기술은 LLM의 추론 비용을 획기적으로 낮추며 글로벌 AI 모델의 가격 파괴를 이끌었다.1
본 보고서는 "중국의 천재 AI 개발자"라는 미디어의 수식어 이면에 존재하는 뤄푸리의 구체적인 기술적 기여와 그녀가 상징하는 중국 AI 연구 인력의 세대교체, 그리고 텍스트 기반 지능에서 물리적 세계(Embodied AI)로 확장하려는 그녀의 최신 행보를 15,000단어 분량으로 심층 분석한다. 이는 단순한 인물 조사를 넘어, 현재 중국 AI 기술의 최전선이 어디에 와 있는지를 가늠하는 중요한 지표가 될 것이다.
2. 초기 생애와 학문적 형성: "천재"라는 수식어의 이면
미디어는 뤄푸리를 "AI 신동(AI Prodigy)"이라 칭송하지만, 그녀의 초기 궤적은 선천적인 천재성보다는 집요한 노력과 후천적인 도약에 가깝다. 그녀의 성장 과정은 중국의 전형적인 엘리트 코스와는 다른, 자기 주도적 학습과 실패를 통한 성장의 서사를 보여준다.
2.1. 성장 배경과 독서광의 유년 시절
뤄푸리는 1995년 중국 쓰촨성 이빈(Yibin)시의 평범한 가정에서 태어났다. 그녀의 부친은 전기 엔지니어로, 이는 어린 뤄푸리가 공학적 사고방식에 노출될 수 있는 간접적인 배경이 되었으나, 본격적인 컴퓨터 교육을 조기에 받은 것은 아니었다.1
유년 시절 그녀의 가장 큰 특징은 '커뮤니티 도서관에서의 자기주도 학습'이었다. 정규 교육 과정 외에 도서관에서 방대한 지식을 섭렵하며 학습하는 습관은 훗날 그녀가 급변하는 AI 기술 트렌드를 누구보다 빠르게 흡수하고 재창조하는 연구 역량의 기초가 되었다.4
2.2. 베이징 사범대학(BNU) 시절: 좌절과 도약
뤄푸리는 베이징 사범대학(Beijing Normal University) 컴퓨터공학과에 진학했으나, 대학 생활의 시작은 순탄치 않았다.
초기의 부진: 입학 초기, 그녀는 동기들에 비해 컴퓨터 기초 지식이 부족하여 성적이 학급 최하위권(bottom of her class)에 머물렀다. 프로그래밍과 알고리즘에 대한 기초가 약해 전공 적성에 대한 심각한 고민에 빠지기도 했으며, 컴퓨터 공학을 포기할 생각까지 했다고 전해진다.2
반전의 서사: 그러나 그녀는 포기 대신 도서관에서의 '딥 워크(Deep Work)'를 택했다. 기초부터 다시 쌓아 올리는 강도 높은 학습을 통해 성적을 극적으로 끌어올렸으며, 결국 우수한 성적으로 졸업하여 베이징 대학교(Peking University) 대학원 추천 입학 자격을 획득했다.5
이 시기의 경험은 뤄푸리에게 중요한 엔지니어링 철학을 심어주었다. 직관적으로 답을 아는 천재형 인재들과 달리, 바닥에서부터 원리를 파헤쳐야 했던 그녀의 경험은 훗날 복잡한 AI 모델의 비효율을 찾아내고 최적화하는 '디버깅(Debugging) 역량'과 '근성'으로 발현되었다.
2.3. 베이징 대학교와 ACL의 전설 (2017-2020)
2017년, 뤄푸리는 베이징 대학교 컴퓨터과학기술연구소(Institute of Computational Linguistics, ICL) 석사 과정에 입학하며 본격적인 연구자의 길로 들어섰다. 이 시기는 딥러닝 기반의 자연어 처리(NLP)가 폭발적으로 성장하던 시기였다.
2019년은 뤄푸리라는 이름이 학계에 각인된 해였다. 그녀는 NLP 분야 최고 권위의 학회인 **ACL(Annual Meeting of the Association for Computational Linguistics)**에 무려 8편의 논문을 게재하는 기염을 토했다.2 박사 과정 학생조차 재학 기간 중 1~2편을 발표하기 힘든 ACL에, 석사 과정생이 단일 연도에 8편을 발표한 것은 전례를 찾기 힘든 성과였다.
주요 연구 주제 및 성과:
이러한 연구 성과는 그녀가 단순히 모델을 돌리는 엔지니어가 아니라, 언어의 구조적 특성을 수학적으로 모델링할 수 있는 깊이 있는 연구자임을 증명했다. 이 시기부터 알리바바, 텐센트 등 빅테크 기업들이 그녀를 주시하기 시작했다.6
3. 알리바바 달마원(DAMO Academy) 시대: 거대 모델의 서막
2020년 석사 학위를 취득한 뤄푸리는 해외 유학 대신 알리바바의 연구소인 **달마원(DAMO Academy)**에 합류했다. 달마원은 중국 기술 기업 중 가장 방대한 컴퓨팅 자원과 데이터를 보유한 곳으로, 뤄푸리가 이론을 넘어 '실제 작동하는 거대 모델'을 다루는 훈련장이 되었다.
3.1. AliceMind 프로젝트의 핵심 기여
달마원에서 뤄푸리는 AliceMind(Alibaba’s Collection of Encoder-decoders from Machine intelligence of Damo) 프로젝트의 핵심 멤버로 활동했다. AliceMind는 알리바바의 다양한 비즈니스(전자상거래, 검색, 고객 응대)를 지원하기 위한 사전 학습 언어 모델(PLM)의 집합체였다.8
그녀는 이곳에서 단순한 연구가 아닌, 수억 명의 사용자가 사용하는 서비스에 적용될 모델의 안정성과 성능을 담보하는 '프로덕션 레벨'의 연구를 수행했다.
3.2. VECO: 다국어 모델의 새로운 표준
이 시기 뤄푸리의 가장 대표적인 업적은 VECO (Variable and Flexible Cross-lingual Pre-training) 모델의 개발을 주도한 것이다.5
문제 의식:
당시 존재하던 다국어 모델(mBERT, XLM-R 등)은 여러 언어를 하나의 인코더에 때려 넣고 학습시키는 방식이었다. 이는 언어 간의 공유된 어휘나 문맥에만 의존했기 때문에, 언어 간의 명시적인 상호 연관성을 학습하는 데 한계가 있었다.10
VECO의 기술적 혁신:
뤄푸리 팀은 트랜스포머 인코더에 **교차 어텐션 모듈(Cross-Attention Module, CAM)**을 플러그인 형태로 삽입하는 방식을 제안했다.
명시적 상호 의존성: CAM을 통해 언어 간의 문맥적 정렬(Alignment)을 명시적으로 학습시켰다.
유연성(Plug-and-Play): 이 모듈은 다운스트림 태스크(번역, 분류 등)의 성격에 따라 켜거나 끌 수 있어, 언어 이해(NLU)와 언어 생성(NLG) 두 마리 토끼를 모두 잡을 수 있었다.
성과: VECO는 XTREME 벤치마크의 다양한 과제에서 최첨단(SOTA) 성능을 기록했으며, 특히 WMT14 영-독, 영-불 번역 태스크에서 기존 모델들을 압도했다.10
이 연구는 뤄푸리가 단순히 기존 아키텍처를 튜닝하는 것을 넘어, **모델의 구조적 결함을 찾아내고 새로운 모듈을 설계하여 해결하는 아키텍트(Architect)**로서의 자질을 갖추었음을 보여준다.
4. DeepSeek 혁명과 MLA 아키텍처: 효율성의 정점
2022년, 뤄푸리는 안정적인 알리바바를 떠나 퀀트 헤지펀드 'High-Flyer(환팡량화)'가 설립한 AI 스타트업 **DeepSeek(딥시크)**에 합류했다. 창업자 량원펑(Liang Wenfeng)은 "경력보다 능력"을 중시하며 젊은 천재들을 모았고, 뤄푸리는 이곳에서 수석 연구원(Principal Researcher)으로서 그녀의 커리어 중 가장 파괴적인 혁신을 주도하게 된다.1
4.1. "AI 핀둬둬"의 탄생 배경
DeepSeek는 막대한 자본을 가진 미국의 OpenAI나 구글과 정면 승부하기 위해 '가성비' 전략을 택했다. 이를 위해서는 모델의 성능은 유지하되, 학습 및 추론 비용을 극단적으로 낮춰야 했다. 뤄푸리는 이 난제를 해결하기 위한 아키텍처 설계의 중추적 역할을 맡았다.
4.2. 심층 분석: Multi-Head Latent Attention (MLA)
DeepSeek-V2와 V3의 핵심 경쟁력은 바로 MLA(Multi-Head Latent Attention) 기술이다. 뤄푸리는 이 기술의 주요 개발자이자 제1저자급 기여를 한 것으로 알려져 있다.11
4.2.1. 문제의 정의: KV 캐시 병목 (The KV Cache Bottleneck)
기존의 트랜스포머 모델은 텍스트를 생성할 때마다 이전의 모든 토큰에 대한 Key(키)와 Value(값) 정보를 메모리에 저장해야 한다. 이를 KV 캐시라고 한다.
문맥 길이가 길어질수록(예: 128k 토큰), KV 캐시의 크기는 선형적으로 증가하여 GPU 메모리(VRAM)를 가득 채운다.
이는 배치 크기(Batch Size)를 줄여 처리량(Throughput)을 떨어뜨리고, 추론 비용을 급격히 증가시키는 주원인이었다.
4.2.2. 기존 해결책의 한계
MQA (Multi-Query Attention): 여러 헤드가 하나의 Key-Value 헤드를 공유하게 하여 메모리를 줄였으나, 모델의 성능(정확도)이 크게 하락했다.
GQA (Grouped-Query Attention): Llama 등에서 사용된 방식으로, 헤드를 그룹으로 묶어 MQA와 MHA(Multi-Head Attention)의 절충안을 찾았으나, 여전히 성능 저하가 존재했다.12
4.2.3. 뤄푸리의 해법: 저순위 압축 (Low-Rank Compression)
MLA는 완전히 새로운 접근 방식을 취했다.
잠재 벡터 투영 (Latent Vector Projection): 입력된 히든 스테이트를 거대한 Key, Value 행렬로 바로 변환하는 것이 아니라, 먼저 훨씬 작은 차원의 **압축된 잠재 벡터(Compressed Latent Vector)**로 투영한다.3
매트릭스 흡수 (Matrix Absorption): 추론 시에는 이 압축된 벡터를 다시 원래 크기의 Key/Value로 복원할 필요 없이, 복원 행렬을 쿼리(Query) 및 출력(Output) 프로젝션 행렬에 수학적으로 통합(Absorb)시킬 수 있다.
결과: 이로 인해 추론 시점에는 압축된 잠재 벡터만 캐시에 저장하면 되므로, KV 캐시의 크기를 기존 대비 93.3%까지 줄일 수 있었다.3
MLA의 파급 효과:
성능 보존: GQA와 달리 성능 저하가 거의 없이 GPT-4급의 성능을 유지했다.
비용 절감: 적은 수의 GPU로도 긴 문맥(Context)을 처리할 수 있게 되어, DeepSeek는 경쟁사 대비 1/100 수준의 API 가격을 책정할 수 있었다. 이는 엔비디아 H100 칩 확보가 어려운 중국의 상황에서 '소프트웨어로 하드웨어의 열세를 극복한' 대표적인 사례가 되었다.13
4.3. MoE (Mixture-of-Experts) 아키텍처의 고도화
뤄푸리는 MLA 외에도 DeepSeekMoE 아키텍처 고도화에 기여했다.
미세 입자 전문가 (Fine-grained Experts): 전문가(Expert) 모델을 아주 잘게 쪼개어(예: 64개 중 8개 활성화), 특정 지식에 대해 더욱 정교하게 반응하도록 설계했다.
활성 파라미터 최적화: 총 파라미터는 2,360억 개에 달하지만, 실제 추론에 사용되는 활성 파라미터는 210억 개 수준으로 억제하여 연산 효율을 극대화했다.3
이러한 기술적 성취 덕분에 뤄푸리는 DeepSeek 내부에서 "기술적 기둥"으로 인정받았으며, 2024년 말 DeepSeek 앱이 미국 앱스토어 1위를 차지하는 기적의 기반을 닦았다.2
5. 인재 영입 전쟁과 샤오미(Xiaomi)로의 이동
DeepSeek의 성공은 뤄푸리의 주가를 천정부지로 끌어올렸다. 2024년 하반기, 중국 기술 업계에서는 그녀를 둘러싼 치열한 영입 경쟁이 벌어졌다.
5.1. 레이쥔(Lei Jun)의 "삼고초려"와 1,000만 위안 오퍼
샤오미의 창업자 레이쥔은 2024년부터 AI 분야에서의 뒤처짐을 만회하기 위해 공격적인 인재 영입에 나섰다. 여러 보도에 따르면, 레이쥔은 뤄푸리에게 연봉 1,000만 위안(약 19억 원, 140만 달러) 패키지를 제안하며 직접 영입을 시도했다.1
초기에는 뤄푸리가 연구에 집중하고 싶다는 이유로 이 제안을 거절했다는 소문이 돌았으나, 결국 그녀는 2025년 말 샤오미 합류를 결정했다.1
5.2. "평화를 빕니다(Plea for Peace)" 사건
뤄푸리의 이직 소식이 알려지자 중국 소셜 미디어와 언론은 그녀를 "천재 소녀", "AI 여신" 등으로 부르며 과도한 관심을 쏟아냈다. 이에 부담을 느낀 뤄푸리는 2025년 2월 18일, 위챗 모멘트(WeChat Moment)를 통해 이례적인 성명을 발표했다.
"과도한 찬사는 엄청난 압박감을 줍니다... 언론이 트래픽을 위해 가족, 친구, 옛 스승님들을 방해하지 말아주기를 간곡히 부탁드립니다. 저는 그저 '올ば른 일(Right Thing)'인 연구에 집중하고 싶습니다." 4
이 사건은 중국 내에서 스타 과학자에 대한 팬덤 문화와 그로 인한 부작용을 보여주는 단적인 예시이자, 뤄푸리가 명성보다는 연구의 본질을 추구하는 성향임을 드러내는 계기가 되었다.
6. 샤오미 MiMo 모델과 엠바디드 AI: 물리 세계로의 확장
2025년 11월, 뤄푸리는 샤오미의 **MiMo 대형 모델 팀 책임자(Head of MiMo Large Model Team)**로서 공식 행보를 시작했다. 그녀는 취임 일성으로 "지능은 결국 언어에서 물리적 세계로 이동할 것"이라며 AGI(일반인공지능)를 향한 포부를 밝혔다.15
6.1. 데뷔작: MiMo-V2-Flash
2025년 12월 17일, '샤오미 2025 파트너 컨퍼런스'에서 뤄푸리는 샤오미 합류 후 첫 작품인 MiMo-V2-Flash를 공개했다.16
주요 스펙 및 성능:
6.2. 기술적 차별점: 에이전트와 코딩에 특화
MiMo-V2-Flash는 범용 챗봇보다는 에이전트(Agent) 작업에 특화되어 설계되었다.
MTP (Multi-Token Prediction): 한번의 패스로 여러 미래 토큰을 예측하는 기술을 적용하여 추론 속도를 비약적으로 높였다.18
하이브리드 사고 모드: 사용자가 빠른 응답과 깊은 사고(Reasoning) 모드를 선택할 수 있게 하여 유연성을 확보했다.16
벤치마크: 코딩 능력 평가에서 모든 오픈소스 모델을 제치고 1위를 차지했으며, 소프트웨어 엔지니어링 벤치마크(SWE-bench)에서도 최상위권 성적을 기록했다.16
6.3. 전략적 함의: "사람-자동차-집(Human-Car-Home)"
뤄푸리의 샤오미 합류는 단순히 모델 하나를 만드는 것이 아니다. 그녀의 미션은 샤오미의 하드웨어 생태계(스마트폰, IoT 기기, SU7 전기차)에 지능을 불어넣는 것이다.
저지연/저비용: MiMo-V2-Flash의 낮은 비용과 빠른 속도는 수천만 대의 샤오미 기기에서 실시간으로 AI를 구동하기 위한 필수 조건이다.
엠바디드 AI (Embodied AI): 뤄푸리가 언급한 "물리적 세계로의 이동"은 샤오미의 로봇(CyberOne)과 자율주행 기술에 그녀의 초효율적 AI 아키텍처가 이식될 것임을 시사한다.15
오픈소스:
https://github.com/XiaomiMiMo/MiMo-V2-Flash
7. 뤄푸리의 기술 철학 및 중국 AI 산업에 미친 영향
7.1. 효율성 지상주의 (Efficiency Maximalism)
뤄푸리의 연구를 관통하는 키워드는 '효율성'이다. 알리바바의 VECO부터 딥시크의 MLA, 샤오미의 MiMo에 이르기까지, 그녀는 항상 **"더 적은 자원으로 더 높은 지능"**을 구현하는 데 집중했다. 이는 데이터와 컴퓨팅 자원이 무한하지 않다는 현실적 제약을 기술적 우아함으로 돌파하려는 철학이다.
7.2. 오픈소스와 공유 정신
그녀는 자신이 개발한 기술을 적극적으로 오픈소스로 공개해왔다. DeepSeek의 가중치 공개, 샤오미 MiMo의 추론 코드(SGLang) 기여 등은 중국 AI 커뮤니티 전체의 기술 수준을 상향 평준화하는 데 기여하고 있다.1
7.3. "포스트 95" 세대의 상징
뤄푸리는 1990년대 중반에 태어난 중국의 '디지털 네이티브' 연구자들을 대변한다. 이들은 해외 유학을 필수 코스로 여기던 이전 세대와 달리, 중국 내 대학(베이징대 등)에서 석박사를 마치고 중국 기업(알리바바, 딥시크)에서 세계적 수준의 연구 성과를 낸다. 이는 중국 AI 생태계가 자생적인 인재 양성 능력을 갖추었음을 증명하는 사례다.6
8. 결론: 경계를 넘어서는 설계자
뤄푸리(Luo Fuli)는 단순한 코딩 천재가 아니다. 그녀는 언어 모델의 메모리 구조를 재설계하여 AI의 경제성을 바꾼 아키텍트이자, 학계와 산업계, 소프트웨어와 하드웨어의 경계를 넘나드는 융합형 리더다.
그녀가 개발한 MLA 기술은 현재 전 세계 AI 연구자들이 "어떻게 하면 GPU 없이도 거대 모델을 돌릴 수 있을까?"에 대한 해답을 찾는 데 핵심적인 레퍼런스가 되고 있다. 이제 샤오미에서 시작된 그녀의 2막은, 텍스트 화면 속에 갇혀 있던 AI를 자동차와 로봇이라는 물리적 실체로 끄집어내는 **'엠바디드 AGI'**의 시대를 여는 열쇠가 될 것이다. 미디어의 화려한 조명을 뒤로하고 "올바른 일을 하겠다"며 연구실로 돌아간 그녀의 행보는, 기술 패권 경쟁의 최전선에 있는 중국 AI의 현재와 미래를 가장 선명하게 보여주는 나침반이다.
참고 문헌 및 출처:
참고 자료
Meet Luo Fuli: the AI Pro Behind DeepSeek's Open-source Model ..., 12월 18, 2025에 액세스,
https://www.binance.com/en/square/post/19594232679266
DeepSeek: Who is Luo Fuli, the 'baby-faced' 29-year-old engineer who almost gave up on computer science - The Economic Times, 12월 18, 2025에 액세스,
DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of ..., 12월 18, 2025에 액세스,
https://arxiv.org/abs/2405.04434
Former DeepSeek employee Luo Fuli pleads for peace amid media attention, 12월 18, 025
The 95s AI genius Luo Fuli from Sichuan, who was heavily rec | 阿斗在这里 on Binance quare, 12월 18, 2025에 액세스, https://www.binance.com/en-TR/square/post/18296456564466
Meet coder Luo Fuli, the genius AI gal behind China's sensational DeepSeek R1, 12월18, 2025에 액세스,
Fuli Luo(罗福莉) - Google 学术搜索, 12월 18, 2025에 액세스, https://scholar.google.com/citations?user=1s79Z5cAAAAJ&hl=zh-CN
China's DeepSeek AI Shakes Up the Game - Washington International Trade Association, 12월 18, 2025에 액세스, https://www.wita.org/blogs/chinas-deepseek-ai/
The 10th CCF International Conference on Natural Language Processing and Chinese omputing NLPCC 2021 Handbook, 12 월 18, 2025에 액세스,
http://tcci.ccf.org.cn/conference/2021/nlpcc2021_handbook.pdf
VECO: Variable and Flexible Cross-lingual Pre-training for Language Understanding and Generation - ACL Anthology, 12월 18, 2025에 액세스,
https://aclanthology.org/2021.acl-long.308.pdf
Meet Luo Fuli: The erudite AI expert behind DeepSeek AI's open-source model and MLA technology - Cryptopolitan, 12월 18, 2025에 액세스,
https://www.cryptopolitan.com/meet-luo-fuli-ai-expert-behind-deepseek-mla/
Understanding Multi-Head Latent Attention, 12월 18, 2025에 액세스,
https://planetbanatt.net/articles/mla.html
Artificial intelligence for medicine 2025: Navigating the endless frontier - The Innovation, 12월 18, 2025에 액세스,
https://www.the-innovation.org/article/doi/10.59717/j.xinn-med.2025.100120
DeepSeek prodigy Luo Fuli joins Xiaomi - Cybernews, 12월 18, 2025에 액세스,
https://cybernews.com/ai-news/deepseek-luo-fuli-joins-xiaomi/
AI才女罗福莉,小米职位曝光,和大家见面的时间也定了| 每日经济新闻, 12월 18, 2025에 액세스,
https://www.nbd.com.cn/articles/2025-11-19/4149998.html
Before Luo Fuli's Debut: Xiaomi Suddenly Claims Its Code is World's Strongest, omparable to DeepSeek-V3.2 [With Actual Tests] - 36氪, 12월 18, 2025에 액세스, https://eu.36kr.com/en/p/3598938409763079
Luo Fuli Makes 1st Public Appearance Since Joining XIAOMI-W w/ Open-source Launch of MiMo-V2-Flash, 12월 18, 2025에 액세스, http://www.aastocks.com/en/stocks/news/aafn-news/NOW.1490901/3
Xiaomi Launches New Generation MoE Large Model MiMo-V2-Flash to Support AGI Development - AI NEWS, 12월 18, 2025에 액세스,
https://news.aibase.com/news/23768
Release the List of MIT Technology Review Innovators Under 35 Asia Pacific 2025, 12
월 18, 2025에 액세스,
https://www.mittrchina.com/news/detail/15265
Who from MIT Made Tech Review's List of Innovators Under 35? | alum.mit.edu, 12
월 18, 2025에 액세스, https://alum.mit.edu/slice/who-mit-made-tech-reviews-list-innovators-under-35
VECO: Variable and Flexible Cross-lingual Pre-training for Language Understanding and Generation - ACL Anthology, 12월 18, 2025에 액세스, https://aclanthology.org/2021.acl-long.308/