brunch

RAG(검색 증강 생성)란?

요즘 기업들이 선택하는 AI 챗봇 도입 전략

by Elice 엘리스
gpt-rag-brunch.png
✔︎ "필요한 정보를 직접 찾아와 설명하는 AI"로 진화하는 생성형 AI. 그 기반 기술인 RAG의 개념, GPT와의 차이, 작동 원리, 실제 활용 예시, 도입 시 체크포인트까지 정리해 봤습니다.


검색 증강 생성(RAG)이란?


ChatGPT처럼 강력한 LLM도 최신 정보나 기업 내부 데이터에는 취약할 수 있다는 것, 알고 계셨나요?

“우리 회사 인사 규정이 어떻게 바뀌었는지 알려줘.”
“2월에 업데이트된 고객 응대 매뉴얼을 기반으로 설명해줘.”

평소에는 똑똑하던 ChatGPT가 위와 같은 질문에는 갑자기 사실과 다른 정보를 알려줄 수도 있습니다. 그 이유는 GPT가 사전 학습된 정적인 데이터만으로 응답하기 때문입니다. 즉, 학습된 내용 이상의 질문을 입력하면 사용자에게 잘못된 정보를 제공하는 ‘할루시네이션’이 발생할 수 있다는 것입니다.

바로 이 한계를 극복하기 위해 등장한 기술이 RAG, ‘검색 증강 생성’ 입니다. 질문에 맞는 외부 문서를 실시간 검색하고, 그 정보를 바탕으로 응답을 생성하는 방식이죠.



GPT vs RAG, 무엇이 다를까?


rag-brunch.png

RAG는 검색 기능을 결합한 덕분에 근거 기반 응답을 생성하고, 정보를 최신 상태로 유지할 수 있다는 점이 가장 큰 차이입니다.


GPT vs RAG : 답변 생성 과정


✔︎ GPT 방식

User Input : 사용자가 질문을 입력하면 해당 질문을 기존에 학습된 데이터와 매칭

Internal Knowledge Recall : 질문과 관련 있을 법한 정보를 기억 속에서 추론 (모델 내부 지식만으로 답변 생성)

Generated Output : 빠르고 자연스러운 결과. 하지만 정보가 최신 정보를 반영하지 못하거나 부정확할 가능성 존재

✔︎ RAG 방식

User Input : 사용자가 질문을 입력하면 질문의 의미를 벡터로 변환

Search Index Query : 질문에 가장 유사한 내용을 가진 문서를 외부 검색 인덱스(사내 자료, 웹 크롤링 데이터, DB 등)에서 찾아냄

LLM + Document 기반 생성 : LLM은 검색된 문서를 받아 맥락에 맞게 답변을 재구성(Generate)

Generated Output : 최신 문서 기반 + 문맥 이해 기반 응답으로, 신뢰성이 높은 답변 제공

[Insight]RAG 2.png

이런 고민이 있는 조직이라면, RAG 도입이 필요합니다.


“메신저 뒤지다가 하루 다 갔어요”

매뉴얼, 가이드, 정책이 슬랙・노션・드라이브에 흩어져 있으면 내부 직원조차 정보를 쉽게 찾기 어렵습니다. 기존 키워드 검색은 표현이 조금만 달라도 누락되고, GPT 챗봇은 내부 문서에 접근하지 못하죠.
RAG는 질문을 벡터로 바꿔 의미 기반으로 문서를 찾아주고, 자연어로 정리해줍니다.


“규정 바뀔 때마다 모델 재학습한다고요?”

GPT는 한 번 배운 뒤에는 새로운 정보를 반영하기 어렵습니다. 반면 RAG는 문서를 벡터DB에 추가하거나 업데이트만 하면 최신 정보도 바로 반영됩니다.


“출처 없는 말은 못 믿겠어요”

교육・의료・법률처럼 책임 있는 답변이 중요한 산업은 GPT의 그럴듯한 거짓말(hallucination)이 큰 리스크가 됩니다. RAG는 근거 문서를 함께 제시해 신뢰도 높은 응답이 가능합니다.


⚠︎다른 기업들이 RAG 챗봇 도입 시 겪었던 어려움은?


근거에 기반한 정확한 응답, 모델 재학습 과정을 줄여주는 장점 덕분에 많은 기업들이 RAG 챗봇 도입을 선택하고 있습니다. 그러나 조직 내부 뿐만 아니라 고객을 대상으로 챗봇을 활용하기 위해서는 생각보다 고도화된 RAG 파이프라인이 필요하죠.


그렇다면 다른 기업들은 어떤 어려움을 겪었고, 어떻게 이 과제를 해결했을까요?

아래 아티클에서 전체 내용을 확인해 보세요.


↪︎ 3분 만에 완독하는 IT 인사이트


글 진예지


keyword
매거진의 이전글MLOps란?