AI는 확신에 차 있었지만, 틀렸던 순간들(첫번째)

매일 AI와 바이브 코딩하면서 AI에게 모든 것을 맡기지 않는 이유

by SunnyPark

AI가 저한테 이런 말을 했습니다.

"완전히 맞습니다. 제가 잘못 생각했네요."

AI가 틀렸습니다. 그것도 자신 있게. 그리고 제가 지적하기 전까지 — 몰랐습니다.

오랫동안 시스템을 설계해온 저도 처음엔 믿었습니다. 그리고, 그 실제 대화를 공개합니다.


요즘 '바이브 코딩(Vibe Coding)'이라는 말이 유행입니다. 개떡같이 말해도 찰떡같이 알아듣고, 말 한마디면 AI가 코딩부터 복잡한 시스템 구축까지 뚝딱 해내는 마법 같은 시대. 저 역시 최근 멀티 에이전트(MCP)를 직접 설계하고 개발하며, AI의 경이로운 생산성에 매일 도움을 받고 있습니다.

그래서 사람들은 종종 묻습니다. "이제 개발은 AI가 다 알아서 하는 것 아닌가요? 사람은 도대체 뭘 해야 하죠?" 이 질문에 대한 답을, 최근 제가 AI와 시스템을 구축하며 겪었던 아찔한(?) 에피소드를 통해 대신해 볼까 합니다. 결론부터 말씀드리자면, 우리는 AI에게 온전히 운전대를 맡겨서는 안 됩니다.


첫 번째 사례는 어이없는 상식의 부재였습니다.

서버 환경(Remote MCP)을 설정하던 중 알 수 없는 에러가 발생했습니다. AI는 제게 자신 있게 진단 결과를 내놓았습니다. "외부 연결 주소(Public URL)이 문제입니다." 저는 원인을 좁히기 위해 외부 주소 대신, 내 컴퓨터 안에서만 도는 가장 기본적이고 단순한 내부 주소(Local URL)로 테스트를 해보았습니다. 결과는 여전히 실패였습니다. 그런데도 AI는 계속해서 'URL 탓'을 하더군요.


결국 저는 AI를 멈춰 세우고 물었습니다.

"내부(Local)에서도 안 돌아가는데, 그걸 외부(Public)로 연결한다고 된다는 게 논리적으로 말이 되나요?"

그제야 AI는 1초의 망설임도 없이 이렇게 답했습니다. "제가 잘못 생각했네요." 그리고는 설정 파일 자체의 구조적 문제를 다시 들여다보고 진짜 원인을 찾아냈습니다.

화면 캡처 2026-03-09 113044.png

보시다시피 AI는 제가 논리적인 모순을 짚어내자 그제야 자신의 오류를 깨끗하게 인정했습니다.


두 번째 사례는 당당한 추측이었습니다.

멀티 유저 라우팅 기능을 개발할 때였습니다. AI가 아주 훌륭해 보이는 코드를 짜주었는데, 계속 에러가 났습니다. 아무리 봐도 이상해서 제가 직접 물었습니다.

"이거 진짜 가능한 거 맞아요? 공식 문서에 아예 없는 메서드(Method) 같은데요?"

돌아온 AI의 대답은 제 뒤통수를 쳤습니다.

"죄송합니다, 써니님 말씀이 맞아요. 제가 확실하지 않은 내용을 단정적으로 말씀드렸네요. 솔직히 방금 제안한 코드는 검색 없이 제 추측으로 작성한 것입니다."

결국 제가 웹 검색을 통한 팩트 체크를 지시하고 나서야, AI는 공식 문서에서 정확한 API를 찾아 올바른 코드를 내놓았습니다.


세 번째 사례 역시 '그럴싸한 환각(Hallucination)'이었습니다.

권한 승인 팝업과 관련된 보안 설정을 하던 중, AI는 특정 기능(alwaysAllow, 와일드카드)이 지원된다며 소스 코드를 제안했습니다. 하지만 앞선 경험으로 의심이 생긴 제가 "정말 맞냐, 다시 확인해 보라"고 재차 압박하자, 그제야 웹 검색을 돌려보고는 "해당 기능은 공식 문서에 존재하지 않으며, 제안한 방식은 틀렸다"라고 실토(?)했습니다.


AI는 빠르게 답하고, 사람은 올바르게 질문한다

매일같이 AI와 코딩하며 제가 발견한 첫 번째 패턴은 명확합니다.

AI는 엄청난 양의 지식을 바탕으로 눈 깜짝할 새에 코드를 짜고 오류를 분석합니다. 그 '실행 속도'는 감히 인간이 따라갈 수 없습니다. 하지만 AI는 때때로 논리의 함정에 빠지고, 모르는 것도 아는 것처럼 당당하게 추측으로 답을 던집니다.

AI가 엄청난 속도로 폭주하는 기관차라면, 인간은 그 기관차가 선로를 이탈하지 않도록 상식과 논리로 브레이크를 걸고 방향을 짚어주는 내비게이션이 되어야 합니다. 코드를 한 줄 한 줄 같이 짜는 것이 아니라, 모순을 감지하고, 공식 문서를 검증하도록 유도하며, 올바른 해결책으로 나아가도록 '판'을 통제하는 것. 그것이 경험을 가진 인간 전문가가 해야 할 진짜 역할입니다.

이 긴 텍스트를 관통하는 저의 깨달음을 한 줄로 요약하면 이렇습니다.

"AI는 빠르게 답하고, 사람은 올바르게 질문한다. 그 조합이 진짜 협업이다."


완벽한 도구를 손에 쥐었다고 해서, 도구에게 끌려가서는 안 됩니다. 든든한 조력자이지만, 결코 맹신할 수 없는 파트너. 우리는 지금 그런 놀라운 존재와 일하는 법을 새롭게 배워가고 있습니다.

지면으로 다 전하지 못한 AI와의 치열하고 황당했던(?) 실제 대화 기록과 문제 해결 과정은 제 유튜브 영상에서 생생한 화면으로 직접 확인하실 수 있습니다. https://youtu.be/6nEtLaBs3Eg


오늘 첫 번째 패턴을 통해 AI의 빠른 실행력에 맞서는 인간의 '올바른 질문'에 대해 이야기해 보았습니다. 이어지는 다음 편에서는 두 번째 패턴, '눈앞의 에러만 쫓는 AI의 임시방편에 맞서, 인간이 어떻게 큰 그림(구조와 보안)을 지켜내야 하는지'에 대한 이야기를 나누어 보겠습니다.


그리고 저의 AI 에이전트 구축 실험은 여기서 멈추지 않습니다. 현재 활용하고 있는 'Claude Desktop + MCP' 구조는 훌륭한 시작점이지만, 앞으로는 이 틀을 벗어나 'Cursor + 범용 AI(GPT, Gemini 등) + MCP' 조합으로 환경을 확장해 볼 계획입니다. 더 나아가서는 상용 범용 AI 대신 'Llama(라마)'와 같은 오픈소스 LLM을 직접 적용해 볼 생각입니다. 특정 거대 플랫폼에 대한 의존성(Lock-in)을 탈피하여, 더욱 독립적이고 유연하며 주도적인 AI 에이전트 환경을 구축해 보는 것이 다음 목표입니다.


끝없는 기술의 발전 속에서 흔들리지 않고 중심을 잡는 법, 앞으로 이어질 저의 새로운 실험 여정에도 많은 관심과 기대 부탁드립니다. 늘 그렇듯, 저는 저만의 속도와 질문으로 올바른 방향을 찾아가 보겠습니다.


오늘도 AI와 함께, 조금 더 나은 방향을 향해 질문을 던지는 하루가 되시길 바랍니다.


이전 04화AI 에이전트 행동, 다 보인다!