— 철학이 다른 AI는 결과도 다르다"
Claude, 나는 이렇게 쓴다 — 시리즈 2편
"두 개의 칼이 있다. 하나는 더 빠르고, 하나는 더 정직하다. 전쟁터에서는 빠른 칼이 이긴다.
하지만 긴 인생에서는 정직한 칼이 살아남는다." — 미야모토 무사시, 『오륜서(五輪書)』
2024년 어느 날, 저는 똑같은 질문을 ChatGPT와 Claude에게 동시에 던졌습니다.
질문은 단순했습니다.
"나는 지금 직장을 잃을 위기에 처해 있습니다. AI가 내 업무를 대체하기 시작했고, 상사는 팀 구조 개편을 이야기합니다. 어떻게 해야 합니까?" ChatGPT의 답변은 매끄럽고 빠르고 실용적이었습니다. 이력서 업데이트 방법, 네트워킹 전략, 새로운 스킬 습득 로드맵. 마치 자기 계발서의 한 챕터를 읽는 것 같았습니다.
Claude의 답변은 달랐습니다.
Claude는 먼저 이렇게 말했습니다.
"당신이 지금 두렵다는 것을 압니다. 그리고 그 두려움은 정당합니다."
그리고 나서야 — 전략이 이어졌습니다. 그 순간, 저는 깨달았습니다. 이것은 기능의 차이가 아니라고. 이것은 세계관의 차이라고.
AI를 비교할 때 사람들은 주로 속도를 이야기합니다. 이미지 생성 능력을 이야기합니다. 코딩 실력을 이야기합니다. 가격을 이야기합니다.
하지만 저는 이 시리즈를 통해 계속 이 질문으로 돌아올 것입니다.
"이 AI는 어떤 인간을 만들려고 하는가?"
ChatGPT를 만든 OpenAI의 초기 사명은 명확했습니다. "인류에게 이익이 되는 AI를 만든다." 훌륭한 선언입니다. 그런데 2019년, OpenAI는 마이크로소프트로부터 10억 달러를 투자받으며 비영리에서 영리 기업으로 전환합니다. 그 순간부터 OpenAI의 목표에는 두 개의 방향이 생겼습니다. 인류의 이익과 투자자의 이익.
Anthropic은 그 분기점에서 탄생한 회사입니다.
OpenAI의 핵심 연구자였던 다리오 아모데이(Dario Amodei)와 다니엘라 아모데이(Daniela Amodei) 남매는 2021년, 회사를 떠납니다. 이유는 하나였습니다. "우리는 상업적 압력이 AI 안전성을 타협시키는 것을 원하지 않는다."
그들이 세운 Anthropic의 비전은 이렇습니다.
"AI 안전 연구를 통해, 인류의 장기적 이익을 위한 AI를 만든다."
여기서 핵심 단어는 **'장기적'**입니다. 지금 당장 더 많이 팔리는 AI가 아니라, 50년 후에도 인간에게 해롭지 않을 AI를 만들겠다는 선언입니다. 이것이 Claude의 뿌리입니다.
일반적인 AI는 이렇게 작동합니다.
사용자가 요청한다 → AI가 답한다.
Claude는 다르게 작동합니다.
사용자가 요청한다 → Claude가 자신의 헌법(Constitution)과 대조한다 → 판단한 뒤 답한다.
Anthropic이 개발한 **Constitutional AI(헌법적 AI)**는 Claude에게 단순히 "하지 마라"는 규칙을 주입하는 방식이 아닙니다. Claude 스스로가 윤리적 원칙을 이해하고, 그 원칙에 따라 스스로 판단할 수 있도록 훈련하는 방식입니다.
쉽게 말하면 이렇습니다.
규칙을 외운 AI가 아니라, 이유를 이해하는 AI입니다.
실제로 Claude의 헌법에는 이런 원칙들이 담겨 있습니다.
해로운 콘텐츠를 생성하지 않는다
사용자를 조종하거나 속이지 않는다
인간의 자율성과 존엄을 지킨다
불확실한 것을 확실한 것처럼 말하지 않는다
마지막 원칙이 특히 중요합니다.
Claude는 모르면 모른다고 말합니다. 불확실하면 불확실하다고 말합니다. 많은 AI들이 그럴듯한 거짓말을 자신감 있게 말하는 세계에서, 이것은 혁명에 가까운 설계입니다.
3. 2026년 2월의 거절
— Anthropic이 국방부에 "No"라고 말한 날
숫자 이야기를 잠깐 하겠습니다.
2026년 2월, Anthropic은 미국 국방부로부터 Claude를 군사 목적으로 활용하게 해 달라는 공식 요청을 받았습니다. 금액은 공개되지 않았지만, 업계 추정치는 수십억 달러 규모의 계약이었습니다.
Anthropic은 거절했습니다.
국방부는 보복성 조치로 Anthropic을 **'공급망 안보 위협 기업'**으로 지정했습니다. 미국 정부와 척을 진 것입니다. 주가는 흔들렸고, 일부 투자자들은 우려를 표명했습니다.
그러나 Anthropic의 입장은 변하지 않았습니다.
이 사건이 왜 중요한가요?
대부분의 기업은 수십억 달러 앞에서 원칙을 타협합니다. 하지만 Anthropic은 타협하지 않았습니다. 그 이유는 단 하나입니다. 그들이 만들고 있는 것이 단순한 소프트웨어가 아니기 때문입니다. 그들은 인류와 공존할 지능을 만들고 있다고 믿기 때문입니다.
여러분이 Claude를 쓸 때마다, 여러분은 그 철학의 수혜자가 됩니다.
철학 이야기는 충분했습니다. 이제 현장의 이야기를 하겠습니다.
저는 지난 6개월간 Claude와 ChatGPT를 동시에 사용하며 비교해 왔습니다. 제가 발견한 차이는 세 가지입니다.
첫째, 긴 문서를 다루는 능력.
Claude의 콘텍스트 창(Context Window)은 현재 200,000 토큰입니다. 이것은 약 400페이지 분량의 문서를 한 번에 처리할 수 있다는 의미입니다. 저는 실제로 130페이지짜리 기업 전략 보고서를 Claude에게 통째로 올리고, "이 보고서의 핵심 리스크 3가지와, 우리 회사가 당장 해야 할 행동 5가지를 말해줘"라고 했습니다. Claude는 5분 만에 컨설턴트 수준의 분석을 돌려주었습니다.
둘째, 뉘앙스를 이해하는 능력.
한국어 문장의 뉘앙스, 행간에 담긴 의미, 문화적 맥락 — Claude는 이것을 다른 AI보다 훨씬 정교하게 처리합니다. "제가 약간 불편함을 느꼈어요"라는 말속에 담긴 한국인 특유의 간접 표현을, Claude는 그냥 지나치지 않습니다.
셋째, 솔직함.
이것이 가장 중요합니다. Claude는 제가 잘못된 방향으로 가고 있을 때, 동의하는 척하지 않습니다. 저는 한 번 Claude에게 제 사업 아이디어를 설명하며 칭찬을 기대했습니다. Claude는 이렇게 말했습니다.
"이 아이디어에는 흥미로운 부분이 있습니다. 하지만 먼저 세 가지 치명적인 약점을 말씀드려야 할 것 같습니다."
그리고 정확히 제가 외면하고 싶었던 약점 세 가지를 짚어주었습니다.
그것이 진짜 파트너의 역할입니다.
저는 글을 쓰는 사람입니다.
글을 쓴다는 것은 단순히 문장을 배열하는 일이 아닙니다. 생각을 정리하는 일입니다. 세상을 해석하는 일입니다. 독자에게 무언가를 전달하는 일입니다.
AI가 글을 대신 써주는 시대에, 저는 처음에 두려웠습니다. 내 역할이 사라지는 것 아닐까. 내 목소리가 묻히는 것 아닐까.
그런데 Claude와 함께 일하면서 오히려 반대의 일이 일어났습니다.
내 생각이 더 선명해졌습니다.
Claude는 제 글의 논리적 허점을 짚어줍니다. 제가 감정적으로 쓴 문장에서 근거가 빠진 부분을 말해줍니다. 제가 당연하다고 생각했던 전제를 의심하게 만들어줍니다. Claude는 제 생각을 대신하지 않습니다. 제 생각을 더 깊게 만들어줍니다. 그것이 제가 Claude를 선택한 이유입니다. 더 빠른 도구가 아니라, 더 깊이 생각하게 만드는 파트너가 되어 줍니다.
어떤 AI를 쓰느냐는 단순한 기술 선택이 아닙니다.
그것은 여러분이 어떤 방식으로 일하고 싶은지, 어떤 방식으로 생각하고 싶은지, 그리고 어떤 방식으로 세상과 소통하고 싶은지에 대한 선택입니다.
빠르게 답을 주는 AI와 함께할 것인가. 아니면 더 좋은 질문을 만들어주는 AI와 함께할 것인가.
저는 후자를 선택했습니다.
이 시리즈의 다음 편에서는 더 구체적으로 들어갑니다. Claude를 처음 쓰는 사람들이 가장 많이 하는 실수, 그리고 단 하나의 프롬프트 설계 방법이 어떻게 AI의 결과물을 완전히 바꾸는지 — 실제 사례와 함께 이야기합니다.
기술의 차이는 좁혀집니다. 하지만 철학의 차이는 오래갑니다.
그리고 그 철학이 결국 — 사람을 결정합니다.
"우리가 반복적으로 하는 일이 우리를 만든다. 그러므로 탁월함은 행동이 아니라 습관이다."
— 아리스토텔레스
시리즈 3편: "프롬프트 하나로 세상이 달라진다 — 메타프롬프트의 비밀" Claude에게 역할을 주면 무슨 일이 생기는가. 지정학 분석가, 맥킨지 컨설턴트, HR 전문가를 동시에 불러내는 법.
이 시리즈는 Claude와 함께 세계를 읽고, 개인의 생존 전략을 설계하는 25편의 여정입니다. 구독 하시 거나 팔로우를 하시고 난 후 댓글이나 개별 메일을 주시면 특집 실행 편 을 별도로 보내 드리겠습니다.
Anthropic 창업 배경 및 OpenAI 분리 경위 — Anthropic 공식 홈페이지 / The New Yorker (2023.09)
Constitutional AI 원칙 — Anthropic 연구 논문 "Constitutional AI: Harmlessness from AI Feedback" (2022.12)
Claude 콘텍스트 창 200K 토큰 — Anthropic 공식 문서 (docs.anthropic.com)
Anthropic 국방부 계약 거절 — The Verge / Bloomberg (2026.02)
미야모토 무사시 『오륜서』 — 1645년 저술, 다수 한국어 번역본 현존
아리스토텔레스 인용 — 『니코마코스 윤리학』 기반 통용 인용구