AI가 "모르겠습니다"라고 말할 수 있게 된 날

당신의 ChatGPT가 거짓말을 멈추는 방법, 'MARL 미들웨어' 공개

by SeaWolf

ChatGPT에게 질문하면, 늘 자신 있게 답합니다. 맞든 틀리든.

"서울에서 부산까지 KTX로 47분 걸립니다." "세종대왕이 훈민정음을 1446년에 반포했습니다."

첫 번째는 틀렸고, 두 번째는 맞습니다. 문제는 — AI가 두 답변을 똑같은 자신감으로 말한다는 것.

이걸 전문 용어로 '환각(Hallucination)'이라고 합니다. AI가 없는 사실을 마치 있는 것처럼 만들어내는 현상. 그리고 이것이 2026년 현재, AI 산업의 가장 큰 골칫거리입니다.

한국의 AI 스타트업 비드래프트가 이 문제에 정면으로 답하는 기술을 내놨습니다. 이름은 MARL.


MARL — Model-Agnostic Runtime Middleware for LLMs - a Hugging Face Space by VIDraft - Chrome 2026-03-09 오후 1_58_07.png


"왜 AI는 틀려도 멈추지 못할까?"

이유는 의외로 단순합니다.

현재 AI(대규모 언어모델, LLM)는 '자기 회귀(autoregressive)' 구조로 작동합니다. 쉽게 말해, 앞 단어가 뒷 단어를 결정하는 방식. 한번 방향을 잡으면 끝까지 그 방향으로 달려갑니다. 중간에 "아, 내가 틀렸나?" 하고 멈추는 기능이 구조적으로 없는 거죠.

사람은 다릅니다. 우리는 말하다가도 "아 잠깐, 그게 아니라…" 하고 스스로 고칩니다. 전문가일수록 "이건 제가 정확히 모르는 영역입니다"라고 말할 줄 압니다. 이 능력을 인지과학에서 '메타인지(Metacognition)'라고 부릅니다. 자기가 아는 것과 모르는 것을 구별하는 능력.

비드래프트는 지난 2월, 세계 최초로 AI의 메타인지 능력만 전문적으로 측정하는 벤치마크 'FINAL Bench'를 공개하며 충격적인 데이터를 내놨습니다. GPT-5.2, Claude Opus 4.6, Gemini 3 Pro 등 세계 최고 수준 AI 모델 9종을 대상으로 1,800건의 평가를 수행한 결과:


"틀릴 수 있다고 인식하는 능력은 69.4%인데, 실제로 오류를 찾아 고치는 능력은 30.2%에 불과했다."


AI는 "내가 틀릴 수도 있어"라는 감(感)은 있지만, 실제로 틀린 부분을 찾아서 고치지는 못하는 것입니다. 아는 것과 할 수 있는 것 사이의 괴리. 비드래프트는 이것을 '메타인지 격차(MA-ER Gap)'라고 이름 붙였고, 그 격차의 크기는 0.392 — 거의 40%p에 달했습니다.


MARL: "한 번에 답하지 마라. 생각하고, 의심하고, 고쳐서 다시 써라."

MARL(Model-Agnostic Runtime Middleware for LLMs)은 이 메타인지 격차를 줄이기 위해 만들어진 AI 추론 미들웨어입니다.


어렵게 들릴 수 있지만, 원리는 직관적입니다.

레스토랑 주방을 떠올려보세요. 한 명의 요리사가 혼자 모든 걸 하면, 실수를 스스로 발견하기 어렵습니다. 맛이 짠지, 간이 빠졌는지 — 만든 사람은 잘 모릅니다.

MARL은 이 한 명짜리 주방을 다섯 명의 전문가 팀으로 바꿉니다.

레시피 기획자가 최적의 접근법을 설계합니다. 메인 셰프가 요리를 완성합니다. 검수관이 빠진 재료, 잘못된 순서를 확인합니다. 품질 관리자가 맛을 보고 "이건 너무 짜다, 이 부분은 논리가 안 맞는다"고 지적합니다. 총괄 셰프가 모든 피드백을 반영해서, 처음부터 완전히 새로 만든 최종본을 내놓습니다.

이 과정에서 핵심은 '적대적 교차 검증(Adversarial Cross-Validation)'입니다. 쉽게 말해, 일부러 반대 입장에서 틀린 점을 찾아내는 역할이 있다는 것. 칭찬만 하는 팀에서는 실수가 안 잡히지만, 비판하는 역할이 있으면 오류가 걸러집니다.

결과적으로 사용자는 깔끔하게 정제된 최종 답변만 받습니다. 원하면 AI가 스스로 고민하고 수정한 전체 과정을 펼쳐볼 수도 있고요.


MARL — Model-Agnostic Runtime Middleware for LLMs - a Hugging Face Space by VIDraft - Chrome 2026-03-09 오후 1_58_34.png


파인튜닝도, RAG도 아닌 '제3의 길'

지금까지 AI의 품질을 높이는 방법은 크게 두 가지였습니다.

파인튜닝(Fine-tuning) — 모델을 다시 학습시키는 것. 수천만 원 이상의 GPU 비용과 수 주의 시간이 필요합니다.

RAG(검색 증강 생성) — 외부 데이터를 검색해서 답변에 참고시키는 것. 외부 지식은 보강되지만, AI가 추론하는 과정 자체의 오류는 그대로 남습니다.

MARL은 이 두 가지와 전혀 다른 접근입니다. 모델의 두뇌(가중치)를 건드리지 않고, '생각하는 방식(추론 과정)' 자체를 바꿉니다. 비유하자면, 사람의 뇌를 수술하는 게 아니라, 일하는 방식(업무 프로세스)을 개선하는 것.

덕분에 GPT-5.4에서 쓰던 MARL을 Claude로, 혹은 오픈소스 Llama로 모델을 바꿔도 그대로 사용할 수 있습니다. 여러 AI를 동시에 쓰는 기업 입장에서는 — 특정 AI 업체에 묶이지 않으면서(벤더 락인 없이) 일관된 품질을 보장받을 수 있다는 뜻입니다.


코드 한 줄이면 됩니다

기술이 아무리 좋아도 쓰기 어려우면 소용없습니다.

MARL의 적용 방법은 놀라울 정도로 간단합니다. 기존 코드에서 API 주소 한 줄만 바꾸면 됩니다. 이미 ChatGPT API를 쓰고 있다면, base_url만 MARL 서버로 지정하면 끝. 이후 모든 API 호출이 자동으로 다단계 검증 파이프라인을 거칩니다.

pip install marl-middleware

PyPI(파이썬 패키지 저장소)에서 위 한 줄이면 설치 완료. Docker, GitHub, 허깅페이스 데모까지 — 개발자라면 5분 안에 자신의 AI에 적용할 수 있습니다.

26만 개발자 커뮤니티를 보유한 AI 에이전트 플랫폼 OpenClaw의 스킬 마켓플레이스 ClawHub에도 공식 등록되어, AI 에이전트에 메타인지를 부여하는 '두뇌 업그레이드'로 포지셔닝했습니다.


9개 창발 엔진: 발명부터 신약까지

MARL에는 기본 추론 강화 외에 9개의 전문 창발(Emergence) 엔진이 내장되어 있습니다.

발명·특허 — 4,275개 기술 아이템 기반, 이종 기술 교차 조합 창작 — 493개 시드 기반 범용 크리에이티브 문서 — 체계적 문서 구조 생성 레시피 — 요리법과 문화적 맥락의 융합 신약·화합물 — 172개 아이템, 타겟×메커니즘×전달체×질환×분자 5계층 유전체·바이오 — 유전자×단백질×경로×표현형×플랫폼 화학·소재 — 원소×결합×구조×물성×응용 생태·환경 — 종×생태계×서비스×위협×전략 법률·규제 — 관할권×영역×수단×메커니즘×분쟁

모델 이름 뒤에 '::pharma', '::create', '::law' 같은 태그만 붙이면 해당 엔진이 활성화됩니다. 총 5,538개의 전문 데이터 아이템이 교차 조합되며, 단일 LLM에서는 절대 나올 수 없는 도메인 특화 아이디어를 생성합니다.


MARL — Model-Agnostic Runtime Middleware for LLMs - a Hugging Face Space by VIDraft - Chrome 2026-03-09 오후 1_59_26.png


핵심 기술은 보호하되, 과정은 투명하게

MARL의 핵심 추론 엔진(다단계 파이프라인, 가중 어텐션 행렬, 에이전트 프롬프트)은 컴파일된 바이너리(.so)로 제공됩니다. 코드를 열어봐도 원리를 알 수 없는 보호 구조.

반면, 설치·테스트·API 연동에 필요한 인터페이스 코드는 완전 공개합니다. 허깅페이스에서는 'Raw LLM vs MARL 적용 LLM'을 나란히 비교하는 A/B 테스트도 즉시 체험할 수 있고요.

특히 인상적인 것은, AI가 자기 답변의 오류를 발견하고 수정하는 전체 과정이 단계별로 기록된다는 점. 기존 AI가 결과만 보여주는 '블랙박스'였다면, MARL은 추론의 '유리 상자(Glass Box)'를 제공합니다. 왜 이 답이 나왔는지, 어디서 오류가 잡혔는지, 어떻게 수정되었는지 — 처음으로 눈에 보이는 AI 추론.


만든 사람들

비드래프트(VIDRAFT)는 '2030년까지 True-AGI 개발'을 목표로 2024년 설립된 서울AI허브 입주 스타트업입니다.

세계 최초 AI 메타인지 벤치마크 FINAL Bench를 개발하여 허깅페이스 데이터셋 글로벌 인기 5위, 리더보드 '금주의 스페이스' 선정. Google DeepMind FACTS Grounding 의료 AI 세계 2위(프랑스 CNRS 검증). 허깅페이스 STAR AI TOP 12(한국 유일). 월간 활성 이용자 200만 명, 공개 AI 모델 1,500개 이상.

김민식 대표는 이렇게 말합니다.


"AI가 스스로 의심하고, 틀린 부분을 찾아 고치는 장면을 투명하게 보여주는 것. 그것이 AI 신뢰의 시작이라고 생각합니다."


직접 써보기


MARL 체험: https://huggingface.co/spaces/VIDraft/MARL


PyPI 설치: https://pypi.org/project/marl-middleware


ClawHub: https://clawhub.ai/Cutechicken99/marl-middleware


GitHub: https://github.com/Vidraft/MARL

FINAL Bench 리더보드: https://huggingface.co/spaces/FINAL-Bench/Leaderboard


#AI환각 #AI할루시네이션 #LLM환각해결 #MARL #AI미들웨어 #AI추론 #메타인지 #Metacognition #ChatGPT환각 #GPT환각 #AI신뢰성 #AI정확도 #AI품질개선 #LLM품질 #AI자기교정 #멀티에이전트 #AI파이프라인 #파인튜닝없이 #RAG대안 #AI스타트업 #비드래프트 #VIDRAFT #FINALBench #허깅페이스 #HuggingFace #PyPI #OpenClaw #ClawHub #AI에이전트 #AGI #범용인공지능 #서울AI허브 #한국AI #KoreaAI #AI개발자 #인공지능 #딥러닝 #GPT5 #Claude #Gemini #오픈소스AI #AI엔지니어링 #프롬프트엔지니어링 #AI블랙박스 #AI투명성 #XAI #설명가능AI #AI환각줄이기 #AI오류교정 #AI안전성 #TrustableAI #신뢰할수있는AI #창발성엔진 #AI신약개발 #AI법률 #테크스타트업


작가의 이전글Artificial Society(인공 사회)를 만들다