AI 에이전트도 '거거익선'일까?

모델 크기가 전부는 아닙니다.

by 미미니

오늘은 AI 분야의 최신 논문인 Adaptation of Agentic AI​를 소개해 드리려고 합니다. 2025년 말, AI 기술의 핵심은 단순한 대화형 챗봇을 넘어 스스로 도구를 사용하고 문제를 해결하는 AI 에이전트로 이동하고 있죠.

과연 AI 모델이 커지면(혹은 모델이 똑똑해지면) 에이전트로서의 능력도 무조건 좋아질까요? 이 질문에 답을 제시한 논문, 함께 보시죠!


천재 요리사도 '남의 집 주방'에선 헤맨다?


이 논문의 핵심 아이디어는 이 비유로 요약됩니다. 아무리 뛰어난 요리사(LLM)라도, 처음 가보는 낯선 주방(특정 작업 환경)에서는 조리 도구가 어디 있는지, 화력은 어떤지 몰라 실수하기 마련입니다.


이때 요리사가 실력을 발휘하게 하는 방법은 두 가지입니다.

1. 요리사 교육: 주방 구조를 미리 익히게 한다. (Agent Adaptation)

2. 주방 개조: 요리사가 쓰기 편하게 도구를 배치한다. (Tool Adaptation)

논문은 이 두 가지 적응의 조화가 에이전트의 성공을 결정한다고 말합니다.


에이전트를 길들이는 두 가지 전략


에이전트 적응 (Agent Adaptation)

모델 자체가 에이전트로서 일을 잘하도록 훈련시키는 과정입니다.

미세 조정: "이 도구는 이렇게 쓰는 거야"라고 예시 데이터를 학습시킵니다.

추론 루프: 모델이 행동하기 전에 "관찰 생각 행동"의 단계를 거치도록 설계하여 실수를 줄입니다.


도구 적응 (Tool Adaptation)

사람들은 보통 AI를 바꾸려고만 하지만, 이 논문은 AI가 쓰기 좋게 도구를 바꾸라고 제안합니다.

API 단순화: AI가 복잡한 프로그래밍 코드를 다 짜게 하지 말고, 아주 쉬운 명령어만 내려도 작동하게 도구를 설계하는 것이죠.

설명서 최적화: AI가 읽었을 때 한 번에 이해할 수 있도록 도구 사용법을 명확하게 작성하는 것만으로도 성능이 비약적으로 향상됩니다.


위 전략을 바탕으로, 아래 그림과 같은 프레임워크를 논문이 보여줍니다.

지금까지 에이전트 연구가 산발적이었는데, 이 논문이 통합 지도를 그려줬어요. 트레이드오프가 명확하죠. A1/A2는 강력하지만 비싸고, T1/T2는 저렴하지만 제한적이죠. 그러나 closed LLM (GPT-4o 같은)을 쓸 때는 T2가 최고, 큰 모델 못 건드리니까 주변 도구를 튜닝하는 거죠.

4가지가 서로 배타적이지 않아요. 최강 시스템은 보통 조합을 써요! 예를 들어 깊이 있는 연구 에이전트는 T1 검색기 + T2 적응 메모리 + A1 reasoning 에이전트로 구성합니다.


마무리: 에이전트의 성능=모델의 지능+도구와의 호흡


기존에는 "더 큰 모델을 쓰면 해결되겠지"라는 생각이 지배적이었습니다. 하지만 이 연구는 작은 모델이라도 환경에 맞게 '적응'만 잘 시키면, 훨씬 적은 비용으로 거대 모델보다 뛰어난 에이전트를 만들 수 있음을 시사합니다. 다시 말하자면, 단순히 “더 큰 모델”이 아니라 어떻게 배우게 할까가 핵심이라는 걸 깨닫게 되죠.


이제는 무조건 거대 모델을 만드는 경쟁이 아니라, 적절한 크기의 모델을 어떻게 효율적으로 생각하게 만들 것인가가 핵심인 시대가 되었습니다. 효율적인 에이전트 설계가 비용 대비 성능을 극대화하는 열쇠가 될 것입니다.

keyword
매거진의 이전글손실 곡선 뒤에서 '조용히' 지혜를 쌓는 AI의 학습