Gemini와 LangChain으로 구축하는 RAG 챗봇: 배포부터 운영
단순히 튜토리얼 코드를 복사해서 붙여넣는 단계는 지났습니다. 이제는 "실제 서비스로 작동하고, 지속적으로 개선되는 AI"를 만들어야 할 때입니다.
본 가이드는 Python, Gemini 2.5, LangChain 1.2.x, FastAPI 등 최신 스택을 활용하여 생성형 AI 애플리케이션의 전 과정을 다룹니다. 특히 한국어 환경에 최적화된 RAG(검색 증강 생성) 챗봇을 구축하고, 구글 클라우드의 Cloud Run을 통해 실제 운영 환경에 배포하는 실전 기술을 4일 과정으로 마스터할 수 있도록 설계되었습니다.
개발(Dev): Python과 LangChain을 활용한 지능형 에이전트 및 RAG 아키텍처 설계
관측(Observation): Langfuse 등을 활용한 LLM 응답 트레이싱 및 비용/지연 시간 가시화
평가(Evaluation): LLM-as-Judge 기법을 도입한 정량적 품질 측정 및 벤치마킹
개선(Optimization): 가드레일(Guardrails) 적용 및 검색 정밀도 향상을 위한 데이터 반복 최적화
배포(Ops): Docker 컨테이너 기반의 Cloud Run 배포와 프론트엔드 연결 실습
단순한 구현(Build)을 넘어 운영(Ops)의 관점에서 AI 서비스를 바라보는 안목을 길러드립니다. 본 연재는 독자 여러분의 실무 적용을 돕기 위해 최종장을 제외한 모든 챕터를 무료로 공개합니다.
1. Python환경구축과 Gemini API 최소 구성 방법
3. 생성형 AI 개발자를 위한 Python Type Hints 실전 가이드
4. 생성형 AI 고도화 전략: Vector DB와 Embedding 이해하기
5. CLI를 넘어 Web API로: FastAPI + LangChain 1.2로 만드는 AI 서버 아키텍처
6. LLM 모니터링 실전 가이드: Langfuse로 RAG 챗봇 운영 최적화하기
7. AI 응답도 성적표가 필요하다 - LangFuse 기반 LLM 평가 가이드
8. LLM 보안 아키텍처 - Guardrails로 AI품질과 안전성 확보하기
10. 내 챗봇 클라우드에 배포하기: Docker와 Cloud Run 활용 가이드
12. 실무적 AIOps 트러블슈팅: 콜드스타트 해결법, AIOps 파이프라인 자동화
©2024-2026 MDRULES.dev, Hand-crafted & made with Jaewoo Kim.
이메일문의: jaewoo@mdrules.dev
AI 에이전트 개발/컨텍스트 엔지니어링/워크플로우(자동화)설계/바이브코딩/Claude Code 강의 문의: https://talk.naver.com/ct/w5umt5
프롬프트 및 워크플로우 설계 대행: https://mdrules.dev