#AI 산업혁명
구글, ML 엔지니어링 혁신을 이끄는 에이전트 ‘MLE-STAR’의 등장
글로벌연합대학 버지니아대학교
인공지능융합연구소장 이현우 교수
1. 코드로 문제를 해결하는 새로운 접근
구글은 최근 머신러닝(ML) 엔지니어링의 복잡성을 근본적으로 낮출 수 있는 새로운 에이전트를 공개했다. 이름하여 MLE-STAR(Machine Learning Engineering via Search and Targeted Refinement). 이 기술은 대형언어모델(LLM)의 코드 생성 능력을 활용해 다양한 ML 문제를 해결하는 과정에서 기존 접근의 한계를 극복하고, 정밀한 코드 최적화를 통해 고성능 솔루션을 만들어내는 것을 목표로 한다.
MLE-STAR는 단순한 모델 개발 지원을 넘어, ML 파이프라인 전체의 설계·최적화 과정을 자동화하며 ML 활용의 진입 장벽을 낮춘다는 점에서 큰 의미를 가진다.
2. 기존 MLE 에이전트의 한계와 개선 필요성
과거의 MLE 에이전트들은 LLM의 사전 지식에 과도하게 의존하는 경향이 있었다. 즉, 널리 알려진 방법을 반복하거나 코드 전체를 일괄 수정하는 방식으로만 작동하여, 세부적인 최적화에는 한계가 존재했다. 이런 접근은 ML 문제의 복잡성을 제대로 다루지 못하고, 결과적으로 높은 성능을 내기 어려웠다.
연구진은 이러한 문제점을 **“전면 수정”과 **“지식 반복”**이라는 두 가지 한계로 규정했다. 이 때문에 세밀한 조정, 즉 파이프라인의 핵심 요소를 개별적으로 다듬어 최적화하는 능력이 절실히 요구되었다.
3. MLE-STAR의 핵심 원리: 탐색과 정밀 개선
MLE-STAR는 두 가지 혁신적 접근을 통해 기존의 문제를 극복한다.
• 웹 검색 기반 초기 모델 탐색: 단순히 LLM의 내재된 지식에 의존하지 않고, 최신 연구와 기법을 웹 검색을 통해 반영하여 초기 코드를 구성한다.
• 두 단계 반복 개선 프로세스:
• 어블레이션 기반 외부 루프는 성능에 가장 큰 영향을 미치는 요소를 파악한다.
• 집중 탐색 내부 루프는 그 요소를 다양한 변형으로 반복 실험하며 성능을 높인다.
이 과정은 전체 코드를 무작정 바꾸는 대신, 특징 추출·전처리·모델 선택과 같은 핵심 요소를 정밀하게 개선하는 방식으로 진행된다. 그 결과, 코드가 점진적으로 고도화되며 최적화 수준이 크게 향상된다.
4. 멀티 에이전트 협업과 안전 장치
MLE-STAR의 또 다른 특징은 여러 전문 에이전트의 협업이다. 각 문제 해결에 특화된 에이전트들이 동시에 작동하여 다양한 후보 솔루션을 만들어낸다. 이후 단순한 점수 기반 선택이 아닌, 에이전트가 직접 설계한 앙상블 전략을 통해 고성능의 통합 솔루션으로 발전시킨다.
또한 코드 실행 과정에서 발생할 수 있는 위험을 방지하기 위해 세 가지 안전 장치가 포함됐다.
• 자동 디버깅 모듈: 실행 오류 발생 시 문제를 진단·수정
• 데이터 누수 검사기: 학습 단계에서 데이터 누수가 발생하지 않도록 사전 차단
• 데이터 활용 검사기: 데이터 일부가 무시되는 문제 방지
이러한 안전 장치는 실험 신뢰성을 보장하며, 실제 현장 적용 가능성을 높인다.
5. 벤치마크 성능 검증과 오픈소스화의 의미
MLE-STAR의 성능은 Kaggle의 ‘MLE-bench Lite’를 통해 검증되었다. 기존 최고 성능 에이전트가 25.8%의 메달 획득률을 기록한 반면, MLE-STAR는 63.6%의 메달 획득률을 달성했다. 특히 36%는 금메달로, 기존 성능을 두 배 이상 초월하는 성과였다.
이러한 성과는 단순히 연구적 의의에 그치지 않는다. 구글은 이 기술을 에이전트 개발 키트(ADK) 기반으로 구축했으며, 현재 깃허브에 오픈소스로 공개했다. 이는 학계와 산업계 모두에서 접근 가능하게 함으로써, ML 자동화 생태계 확산을 촉진할 것으로 전망된다.
6. 결론: ML 자동화와 혁신의 미래
MLE-STAR는 복잡한 ML 문제를 단순화하면서도 성능은 극대화하는 새로운 길을 열었다. 이는 단순히 코드 자동 생성의 발전이 아니라, ML 엔지니어링 전체를 재구성하는 패러다임 전환이라 할 수 있다. 앞으로 최신 모델과 기법이 지속적으로 등장함에 따라, MLE-STAR 기반 솔루션 역시 자동적으로 개선될 것이며, 이는 개인 개발자부터 대규모 조직에 이르기까지 ML 활용을 한층 더 가속화할 것이다.
구글이 언급했듯, 이 기술은 단순한 성능 향상을 넘어 “혁신을 누구나 활용할 수 있도록 민주화하는 도구”로 자리 잡을 가능성이 크다.