brunch

MCP는 왜 이제야 주목받고 있을까?

AI 에이전트 개발의 새로운 표준 MCP를 깊게 파고들어 보자

by 알바트로스

요즘 AI 에이전트 개발 실무에서 가장 핫한 기술을 하나만 고르자면 MCP(Model Context Protocol)을 꼽을 수 있을 것입니다. AI 에이전트의 아키텍처가 고도화되고 LLM과 다양한 툴들 간의 '연결'이 점점 더 중요해지면서 또다시 주목받고 있는 것입니다.


지난번 저의 글 LLM과 모든 데이터의 연결고리, MCP란? 에서 다루었던 것처럼 MCP는 쉽게 말해 LLM과 외부 데이터 소스(웹 API, 데이터베이스, 파일 시스템 등)를 하나로 연동할 수 있게 해주는 개방형 표준 프로토콜의 하나로 등장했었습니다. 쉽게 말해, 다양한 도구와 데이터 소스를 LLM에 안전하고 일관되게 연결하는 중간 통신 프로토콜이라고 볼 수 있습니다. 이 덕분에 코드 에디터, 채팅 앱, 검색 서비스 등 다양한 환경에서 LLM을 더욱 풍부하고 유연하게 활용할 수 있게 됩니다.


what_is_mcp.gif 출처 : https://incodom.kr/MCP_server


그런데 사실 MCP가 등장한 것은 AI 에이전트라는 기술이 크게 주목받기 이전이었습니다. 2024년 11월, 대표적인 SoTA 모델 Claude의 개발사인 Anthropic은 MCP라는 개방형 표준을 조용히 발표했습니다. 당시에는 큰 주목을 받지 못했지만, 불과 몇 달 만에 상황이 완전히 바뀌었습니다. 2025년 2월 Cursor AI가 MCP 업데이트를 발표하고, 이어 OpenAI까지 이를 공식 지원하면서 MCP는 LLM(대규모 언어 모델) 생태계의 핵심 기술 중 하나로 급부상하고 있는 것입니다. MCP는 도대체 왜 이제야 주목받고 있는 걸까요?



1. MCP, 왜 지금에서야 주목받고 있는가?


MCP가 출시 당시에는 크게 주목받지 못했던 이유 중 하나는 초기 지원 환경이 제한적이었다는 점이 꼽힙니다. MCP는 2024년 말 발표 당시 Claude에서만 부분적으로 지원되었고, 직접 MCP 서버를 구축하는 것도 난도가 있었습니다. 그러나 2025년 2월, 대표적인 코딩 어시스턴트 툴인 Cursor AI가 자체 IDE에 MCP 업데이트를 적용하며 누구나 쉽게 MCP 서버를 연동할 수 있게 되었습니다.


또한 2025년 6월에는 드디어 OpenAI가 공식적으로 MCP를 지원하면서 업계 전반에 신호탄을 쏘았습니다. 사람들에게 가장 잘 알려진 생성형 AI 모델 중 하나인 GPT가 MCP 기반의 툴을 직접 호출할 수 있게 되면서 시장의 반응은 폭발적이었습니다.


2. 기존의 Function Calling 기능과 무엇이 다른가?


사실 AI 개발자 중에는 MCP를 그다지 새로운 개념으로 느끼지 않는 분들이 대부분일 것입니다. 그도 그럴 것이 RAG 파이프라인 구축을 위한 LangChain이나 Litellm과 같은 오픈소스 역시 툴 연동을 위한 Function Calling 기능을 제공했기 때문입니다.


하지만 이들은 각자의 프레임워크 안에서만 동작하는 종속적 구조입니다. 반면 MCP는 특정 프레임워크에 종속되지 않기 때문에 어떤 플랫폼에서도 동일한 방식으로 도구를 호출할 수 있습니다. 결과적으로 LangChain, Litellm 등의 프레임워크는 핵심 기능 개발에 집중하고, MCP를 통해 도구 통합 부담을 덜 수 있게 되었습니다.

mcp.png 출처 : Claude


3. MCP의 구성요소 : 호스트, 서버, 클라이언트, Transport Layer


또한 MCP는 그다지 복잡하지 않은 구조로 설계되어 사용이 용이하다는 점이 장점으로 꼽힙니다. 주요 구성 요소는 다음과 같습니다:


- MCP 호스트 : MCP를 통해 데이터에 액세스 하려는 Claude Desktop, IDE 또는 프로그램

- MCP 서버 : 다양한 도구를 MCP 방식으로 노출하는 경량 서버

- MCP 클라이언트 : MCP 서버와 연결하여 도구 정보를 받아오고 실행함

- Transport Layer: 클라이언트와 서버 간 통신을 담당 (예: stdio, HTTP)


mcp2.png 출처 : Claude

통신 방식으로는 크게 studio와 streamable HTTP 두 가지가 있습니다. 대표적인 통신 방식인 stdio는 로컬 환경에서의 단순한 테스트에 적합하고, streamable HTTP는 실제 운영 환경에서의 다중 클라이언트 연결을 지원합니다.


mcp_components.gif https://incodom.kr/MCP_server


4. Remote MCP 서버의 부상


MCP는 로컬 데이터 소스와 원격(remote) 두 가지 방식으로 운용이 가능합니다. 로컬 데이터 소스에는 MCP 서버가 안전하게 액세스 할 수 있는 컴퓨터의 파일, 데이터베이스 및 서비스가 포함되며, 원격 서비스에는 MCP 서버가 연결할 수 있는 인터넷(예: API를 통해)을 통해 사용 가능한 외부 시스템이 해당됩니다.


1*sfbC5BIvV9Qgu-H6uDhIlA.png MCP를 지원하는 대표적인 회사들 (출처 : medium)


이처럼 원격으로 운영이 가능하다는 장점 덕분에 MCP는 더욱 주목받고 있습니다. 사용자는 직접 MCP 서버를 구축하지 않아도, Github, Jupyter, Docker, Notion 등의 공식 MCP 서버에 연결할 수 있습니다. 설정도 매우 간단합니다—그저 몇 줄의 JSON 설정으로 모든 것이 끝납니다.


5. 마치며: 표준의 가치


MCP는 단순한 기술 이상의 의미를 가집니다. MCP는 LLM 기반 애플리케이션의 플러그인 생태계를 개방형 표준으로 정립하는 시도입니다. 아직은 초기 단계지만, OpenAI와 Anthropic, Cursor AI 같은 주요 기업들이 MCP를 채택하면서 그 확장성과 미래 기술의 방향성은 이미 정해져 있는지도 모릅니다. 우리는 이제 막 시작된 도구 호출의 표준화 시대의 문턱에 서 있습니다. MCP는 단순한 유행이 아니라, 그 미래를 여는 핵심 열쇠가 될 것입니다.

keyword
이전 29화AGI의 시대? - LLM은 정말로 생각할 수 있을까?