AI가 직접 검색 전략을 짠다
안녕하세요! 날이 너무 춥다가 좀 풀리니 밤바람이 봄바람 같네요. 이런 낭만적인 밤에 재미있는(?) 논문 한 스푼. 바로 A-RAG(Agentic Retrieval-Augmented Generation)에 관한 논문인데요.
혹시 AI를 쓰면서 "아, 얘가 좀 더 꼼꼼하게 찾아보고 대답해 주면 좋을 텐데..."라고 생각하신 적 없으신가요? 이 논문은 바로 그 갈증을 해소해 줄 해결책을 제시합니다.
지금까지의 RAG(검색 증강 생성) 기술은 일종의 '정해진 코스 요리' 같았습니다. 사용자가 질문하면 시스템이 미리 정해진 알고리즘으로 문서를 찾고 그걸 AI에게 던져주면 끝이었죠.
하지만 질문이 복잡해지면 문제가 생깁니다. AI는 자기가 받은 자료가 충분한지, 혹은 더 정확한 키워드로 다시 찾아봐야 하는지 판단할 권한이 없었거든요. 한마디로, 한 숟갈 주는 대로만 먹는 AI였던 셈입니다.
이번 논문에서 발표한 A-RAG는 다릅니다. AI를 단순히 정보를 받는 수동적인 존재에서, 스스로 정보를 찾아다니는 능동적인 요원(Agent)으로 업그레이드했습니다.
A-RAG는 AI에게 계층적 검색 인터페이스라는 3가지 숟가락을 줍니다:
• 키워드 검색(Keyword Search): 특정 단어나 이름이 들어간 부분을 딱 집어서 찾기
• 시맨틱 검색(Semantic Search): 단어는 달라도 맥락상 의미가 통하는 내용 찾기
• 청크 읽기(Chunk Read): 찾은 문서의 특정 부분을 아주 상세하게 파고들기
이제 AI는 질문을 받으면 일단 시맨틱 검색으로 전체적인 분위기를 보고, 중요한 키워드가 나오면 그걸로 다시 정밀 검색을 해보아야겠다고 스스로 전략을 짭니다.
기존의 Graph RAG는 정해진 알고리즘대로만 움직이고, Workflow RAG는 미리 짜인 단계만 밟았습니다. 하지만 A-RAG는 다르다고 합니다. 상황에 따라 스스로 전략을 선택하고, 필요하면 반복하고, 도구를 섞어서 사용하는 에이전트 자율성을 완벽히 구현했거든요.
이 논문에서 가장 놀라운 점은 성능 지표입니다. GPT-5-mini와 결합했을 때, 복잡한 질문에 답해야 하는 HotpotQA 벤치마크에서 무려 94.5%라는 놀라운 정확도를 기록했습니다.
기존 방식보다 훨씬 적은 데이터를 읽고도 훨씬 정확한 답을 낸다는 것이 핵심입니다. 불필요한 정보는 거르고, 핵심 정보만 쏙쏙 골라내는 검색의 달인이 된 것이죠.
A-RAG의 등장은 단순히 성능이 좋아진 것을 넘어, 두 가지 중요한 변화를 예고합니다.
• 모델이 커질수록 더 똑똑해지는 검색: 모델의 추론 능력이 좋을수록 검색 도구를 더 기가 막히게 활용합니다. 즉, AI 성능의 한계가 검색 기술에 가로막히지 않게 됩니다.
• 생각할 시간을 주면 더 정확해진다: 논문에서는 'Test-time compute'의 확장성을 강조합니다. AI에게 "충분히 시간을 갖고 더 찾아봐"라고 하면, 그만큼 더 완벽한 답변을 찾아내는 구조를 만들었습니다.
이제 우리는 AI에게 단순히 "답해줘"라고 하는 시대를 지나, AI가 직접 "제가 이 문서를 더 자세히 읽어보고 정확한 근거를 찾아올게요"라고 말하는 시대를 맞이하고 있습니다.
A-RAG는 AI가 단순한 지식 저장소가 아니라, 우리 대신 도서관의 수만 권 책 사이를 누비는 베테랑 사서가 될 수 있음을 증명했습니다. 앞으로 우리 곁의 AI 비서가 얼마나 더 꼼꼼해질지 정말 기대되지 않나요? 소스코드도 공개되었으니 구경해 보실 분은 살펴보세요~