'선언'을 '증명'으로. 마침내 '뇌'가 작동합니다

'지능형 관제실'(FASTMCP + Claude) 첫 작동 시연

by SunnyPark

지난 글에서 저는 중대한 선언을 했습니다.

단순히 효율적인 '자동화 관제실(A안)'을 넘어, AI가 스스로 판단하는 '지능형 관제실(B안)'의 뼈대를 시즌 2에 먼저 심겠다고 말입니다.

개발자가 모든 '매뉴얼'을 짜두는 대신, AI 두뇌(Claude)가 '사물함(FASTMCP)'의 용도를 보고 스스로 판단하게 만들겠다는, 어찌 보면 무모한 '설계 실험'이었죠.

솔직히 고백하자면, 글은 자신 있게 썼지만 한편으로는 불안했습니다.


"이론은 완벽해. 하지만... AI가 과연 내가 만든 이 '사물함(기능)'들의 용도를 '정확히' 이해하고 '알아서' 순서를 정해줄까?"

개발자가 짠 코드(A안)는 실수를 하지 않습니다. 100번을 시켜도 정의한 이름을 호출해서 정해진 1, 2, 3의 순서를 따르죠.

하지만 AI(B안)는 다릅니다. AI에게 '판단'을 맡긴다는 것은, 우리가 예상치 못한 엉뚱한 사물함을 열 수도 있다는 리스크를 감수하는 일입니다.


이론을 넘어, '실험'으로 증명할 시간이었습니다.


"알아서 처리해 줘" - 실험의 시작

저는 지난 시즌 1에서 만들었던 'AI 영업비서'를 실험 대상으로 삼았습니다.

A안(기존 방식)이었다면, 저는 AI에게 이렇게 '명령'해야 했습니다.

"1. Gpt고객추출 기능 실행 → 2. 만약(if) 정보 부족하면, 답장 메일 기능 실행 → 3. 만약(else) 정보 충분하면, SFDC고객등록 기능 실행..."

하지만 B안(지능형 관제실)에서는 달랐습니다. 저는 AI 두뇌(Claude)에게 FASTMCP라는 '사물함 목록'만 보여주고, 요청했습니다.

"최근 10분간 받은 새 메일을 분석해서, 고객정보를 추출하고 세일즈포스에 Lead (잠재고객)등록해줘."


첫 번째 작동: AI가 '판단'하고 '질문'하다

첫 번째 테스트 메일이 도착했습니다. 고객 이름만 있고 회사 정보나 연락처가 빠진, 불충분한 문의 메일이었죠.

A안이었다면 제가 미리 짜 둔 if 정보 부족 조건문이 실행되었을 겁니다. 하지만 지금은 AI가 스스로 판단해야 합니다. 잠시 후, AI가 움직였습니다.

AI는 FASTMCP의 사물함 목록을 훑어보더니, 스스로 'Gpt고객추출' 사물함을 열어 메일 분석을 시도했습니다. 그리고는 '정보가 불충분하다'라고 스스로 판단했습니다.

여기까지도 놀라웠지만, 그다음이 핵심이었습니다. AI는 곧바로 'SFDC고객등록' 사물함을 열지 않았습니다. 대신, '답변 메일 작성' 사물함을 선택하더니 "고객님, 원활한 상담을 위해 추가 정보가 필요합니다"라는 메일을 작성해 발송했습니다.

제(개발자)가 명확하게 각 기능을 호출하고 순서를 정해서 시키지 않았습니다. AI가 스스로 이 자연어로만 '판단'하고, 필요한 기능을 '선택'한 것입니다.


두 번째 작동: AI가 '스스로' 워크플로우를 만들다

곧이어 고객에게서 추가 정보가 담긴 회신 메일이 도착했습니다. 저는 또다시 '아까와 똑같은' 자연어로 요청을 했습니다.

이번에도 AI는 'Gpt고객추출' 사물함을 열었습니다. 그리고 이번에는 '정보가 충분하다'라고 판단을 내렸죠.

그러자 AI는 망설임 없이 다음 행동을 개시했습니다.

'SFDC고객등록' 사물함을 열어 고객 정보를 세일즈포스에 '리드'로 등록했습니다.

이어서 '답변 메일 작성' 사물함을 열어 "담당자가 매칭되었습니다"라는 안내 메일을 발송했습니다.


보이시나요? A안처럼 개발자가 명확한 기능명을 일일이 호출하면서 1-2-3 순서를 정해준 것이 아닙니다. AI는 동일한 요청에 대해, 상황(Context)을 스스로 인지하고, 완전한 워크플로우(workflow) 를 만들어냈습니다.


'자동화'가 '자율화'가 되는 순간

이 시연을 지켜보며 저는 깨달았습니다. 이것은 단순히 '효율적인 자동화'가 아니라, '지능을 가진 자율화'의 첫걸음이라는 것을.

지난 2화에서 저는 '지능의 뼈대(Frame)'를 심는 것이 중요하다고 했습니다. 이 실험의 성공은 FASTMCP와 Claude AI의 조합이 단순한 '뼈대'를 넘어, 스스로 생각하고 움직이는 '초기 단계의 신경망'이 될 수 있음을 증명한 것입니다.

개발자는 이제 '명령'을 내리는 오퍼레이터가 아닙니다. AI가 잘 판단할 수 있도록 '사물함(기능)'을 잘 정의하고 만들어주는 '설계자'가 되는 것입니다.


이 긴 글을 읽어주셨다면, 이제 2화의 '선언'이 3화의 '증명'이 되는 그 순간을 직접 목격하실 수 있도록 AI가 '스스로' 판단하고 작동한 실제 시연 영상을 공유드립니다.

https://youtu.be/Nz3T0u3mrqY?si=5eiuvPxw-tDw7ebX


물론, 이 실험은 이제 막 첫걸음을 뗐을 뿐입니다.

지금 보여드린 것은 제 데스크톱 PC와 Claude AI를 직접 연동한 것입니다. 우리가 매일 사용하는 웹이나 모바일 앱처럼 누구나 쓸 수 있는 '진짜 서비스'는 아니죠.

'뇌'가 작동하는 것은 확인했습니다. 이제 이 '뇌'를 안전하게 담아, 누구나 접속할 수 있는 '튼튼한 몸(웹/모바일 서비스)'에 이식해야 합니다.


다음 글에서는 이 '데스크톱의 한계'를 넘어, 이 지능형 AI 에이전트를 실제 웹/모바일 서비스로 구현하기 위한 아키텍처(설계)와 구현, 그 과정에서 마주한 또 다른 도전 과제들을 이야기해 보겠습니다.

이전 02화AI 신입에게 ‘몸’보다 ‘뇌’를 먼저 달아주려합니다