AI 트렌드 리포트 2026 '창간호' — Vol.001
2025년 9월, 450페이지짜리 AI 트렌드 리포트 연간 단행본을 기획했습니다. 20개 챕터에 200개 AI 서비스 심층 분석, "매년 10월 15일 완전 개정"이라는 야심 찬 전략까지 세웠습니다.
6개월이 지난 지금, 그 기획서를 다시 펼쳐봤습니다. 이미 과거의 문서였습니다.
기획서에는 "Claude Opus 4.1, 200K 토큰 컨텍스트"라고 적혀 있습니다. 지금 Claude는 4.6입니다. GPT-5는 "400K 토큰 컨텍스트"로 기록되어 있었는데, 지금 GPT-5.4는 100만 토큰을 처리하며 스스로 컴퓨터를 조작합니다. 기획서에는 없던 사건들 — Anthropic이 미 국방부와 정면충돌하고 연방법원에 소송을 제기한 일, OpenClaw라는 바이럴 AI 앱이 등장했다가 OpenAI에 인수된 일, DeepSeek V4가 1조 파라미터로 출시된 일, OpenAI가 Sora API를 폐쇄한 일 — 이 AI의 풍경을 완전히 바꿔놓았습니다.
"매년 10월 15일 완전 개정"이라는 전략은, AI 분야에서 1년이 얼마나 긴 시간인지를 과소평가한 것이었습니다. 이 경험이 이 매거진의 출발점입니다. AI를 다루는 콘텐츠는 시의성을 잃으면 가치를 잃습니다. 그래서 주 2회, 매주 월요일과 목요일 아침에 찾아갑니다.
AI 뉴스는 넘칩니다. 하루에도 수십 건의 새로운 소식이 쏟아지고, 요약은 AI가 해줍니다. 이 매거진은 뉴스를 전달하지 않습니다. 맥락을 읽고 관점을 제시합니다.
어떤 관점인지 말씀드리겠습니다.
오늘날 "AI"라는 하나의 이름으로 불리는 것 안에는 성격이 전혀 다른 두 가지가 섞여 있습니다. 하나는 인간의 개입 없이 독립적으로 작동하는 능력입니다. 공장의 자동 품질 검사, 금융 시장의 자동 거래 알고리즘 같은 것입니다. 이것을 기계지능이라 부르겠습니다. 다른 하나는 인간의 사고 과정에 참여하여 인지를 확장하는 능력입니다. 인간이 질문을 던지고, AI가 응답하고, 인간이 그 응답을 사고의 재료로 삼아 다시 질문하는 과정 속에서 작동하는 것입니다. 이것을 확장지능이라 부르겠습니다.
같은 AI라도 어떤 맥락에서 쓰이느냐에 따라 성격이 달라집니다. 동일한 대규모 언어 모델이 자동으로 이메일을 분류할 때는 기계지능에 가깝고, 사용자와 대화하며 사고를 확장할 때는 확장지능에 가깝습니다. 그리고 확장지능은 기계 안에도, 인간 안에도 있지 않습니다. 인간이 어떤 질문을 던지느냐에 따라 달라지는, 그 관계 속에 존재합니다.
이 구분을 놓치면 AI에 대한 논의는 항상 엇나갑니다.
이번 달의 실제 사례로 보겠습니다. Oracle은 2~3만 명을 해고하면서 AI 인프라에 80~100억 달러를 재투자한다고 밝혔습니다. Block의 CEO 잭 도시는 4,000명(전체 직원의 약 40%)을 내보내면서 "AI가 이 직무를 불필요하게 만들었다"라고 말했습니다. 이것은 기계지능이 인간 노동을 대체하는 현상입니다. 한편, PwC의 조사에 따르면 AI 스킬을 보유한 노동자의 임금 프리미엄은 56%에 달합니다. 이것은 확장지능과의 관계를 잘 맺는 사람이 가치를 인정받는 현상입니다. 같은 "AI"라는 단어 아래서, 정반대의 일이 동시에 벌어지고 있습니다.
이 매거진은 이 관점을 확장지능론이라 부릅니다. 매주 AI 뉴스를 분석할 때, 벤치마크 점수나 파라미터 수가 아니라 "인간과의 관계에서 무엇이 달라지는가"를 묻겠습니다.
독자에게 약속드립니다. 이 매거진만 꾸준히 읽으시면 AI 업계 전체의 흐름을 놓치지 않을 수 있습니다.
언어 모델만 다루지 않겠습니다. 이미지 생성, 영상 생성, 음악, 음성 합성, 코딩, 로보틱스, 의료 AI까지, AI가 활용되는 모든 분야를 주기적으로 다룹니다. 미국만 다루지 않겠습니다. 중국, 유럽, 아시아, 그리고 한국의 동향을 놓치지 않습니다. 기술만 다루지 않겠습니다. 모델에서 제품으로, 제품에서 산업으로, 산업에서 사회와 정책으로 — 전 레이어를 다룹니다.
매주 월요일 아침 7시에 「주간 트렌드 노트」를, 목요일 아침에 「심층 리포트」를 발행합니다. 업계를 뒤흔드는 대형 사건이 터지면 특별호를 추가합니다.
이 매거진은 미리 확정된 목차를 따르지 않습니다. 매주 가장 중요한 주제를 선택하되, 아래 8개의 축을 나침반으로 삼습니다.
모델 전쟁 — 성능 경쟁에서 실용 가치 경쟁으로의 전환
AI 에이전트 — 자동화의 약속과 현실, 그리고 인간 참여의 감소라는 트레이드오프
오픈소스 vs 클로즈드 — 기술과 지정학이 교차하는 전선
AI와 권력 — 규제, 소송, 국가와 기업의 충돌
일과 산업의 변화 — AI에 의한 대체와 확장이 동시에 벌어지는 현실
크리에이티브 AI — 이미지, 영상, 음악, 디자인 분야의 현재와 미래
AI 인프라 — 칩, 데이터센터, 에너지, 양자컴퓨팅
버블인가 혁명인가 — 거시적 관점에서의 냉정한 진단
이 축들은 고정이 아닙니다. 새로운 메가트렌드가 등장하면 추가하고, 의미가 소진되면 통합하거나 제거합니다.
이제 이번 주 — 정확히는 이번 달 — AI 세계에서 무슨 일이 있었는지 바로 시작하겠습니다.
2026년 3월은 AI 역사에서 하나의 분기점으로 기록될 가능성이 높습니다. 한 달 동안 세 개의 전쟁이 동시에 터졌습니다. 모델 전쟁, 윤리 전쟁, 생존 전쟁. 각각을 살펴보겠습니다.
3월 첫째 주에만 12개 이상의 주요 AI 모델이 동시에 출시되었습니다. 한 분기가 아니라 한 주에 벌어진 일입니다.
3월 5일, OpenAI가 GPT-5.4를 출시했습니다. 100만 토큰 컨텍스트 윈도(약 1,500페이지 분량의 문서를 한 번에 처리할 수 있는 규모), 네이티브 컴퓨터 사용 기능(스크린샷을 해석하고 마우스와 키보드를 직접 조작), 실무 태스크 벤치마크 GDPval에서 83.0%(이전 GPT-5.2의 70.9% 대비 급등)를 달성했습니다. 법률 문서 벤치마크에서는 91%를 기록했습니다.
같은 시기, 중국의 DeepSeek은 V4를 내놓았습니다. 1조 파라미터 규모에 100만 이상의 토큰 컨텍스트, 네이티브 멀티모달을 지원하면서도 오픈 웨이트로 공개했습니다. Alibaba의 Qwen 3.5 소형 모델 시리즈는 9B 파라미터로 노트북에서 돌아가면서도 대학원 수준 추론 벤치마크(GPQA Diamond)에서 81.7점을 기록해, OpenAI의 120B 모델을 넘어섰습니다.
영상 생성 쪽도 움직였습니다. Lightricks의 LTX 2.3은 4K 해상도에서 영상과 오디오를 동시에 생성하는 오픈소스 모델을 무료로 공개했고, Helios는 단일 NVIDIA H100 GPU에서 초당 19.5 프레임으로 60초 영상을 생성합니다.
3월 11일에는 NVIDIA GTC 2026이 열렸습니다. 올해 GTC의 핵심 메시지는 분명했습니다. 에이전트 AI가 실험 단계를 지나 기업의 프로덕션 시스템으로 전환되고 있다는 것입니다. NVIDIA는 기업용 에이전트 오케스트레이션 프레임워크 NeMoCLAW를 발표했습니다.
한편, 3월 24일 OpenAI는 Sora 공개 API를 폐쇄한다고 발표했습니다. 30일의 유예 기간을 두었지만, 이유는 냉정했습니다. 고품질 영상 생성의 추론 비용이 사용자가 지불하는 API 가격과 "경제적으로 양립할 수 없는" 수준이라는 것입니다.
그리고 조용하지만 의미 깊은 사건이 하나 있었습니다. 컴퓨터 과학의 거장 도널드 크누스(스탠퍼드 명예교수, 『The Art of Computer Programming』 저자)가 3월 초 "Claude's Cycles"라는 논문을 발표했습니다. Claude Opus 4.6이 3차원 방향 그래프에서 해밀턴 순환을 구성하는 난제를 풀어낸 것에 대해, 크누스는 논문 서두에 이렇게 적었습니다 — "충격! 충격!(Shock! Shock!)" 그는 이것을 "자동 추론과 창의적 문제 해결의 극적인 진전"이라 평가했습니다.
3월의 가장 큰 사건은 기술이 아니라 정치에서 벌어졌습니다.
경과를 정리합니다. Anthropic은 2025년 7월 미 국방부와 2억 달러 규모의 계약을 체결하고, AI 기업 최초로 국방부 비밀 네트워크에 Claude를 배치했습니다. 정보 분석, 사이버 작전, 작전 계획 등에 활용되었습니다. 그런데 9월부터 Claude의 배치 범위를 확대하는 협상에서 문제가 생겼습니다. 국방부는 "모든 합법적 목적"에 대한 제한 없는 접근을 요구했고, Anthropic은 두 가지 경계선을 지켰습니다. 대규모 국내 감시와 자율무기에는 Claude를 사용할 수 없다는 것이었습니다.
2월 24일, Anthropic CEO 다리오 아모데이와 국방장관 피트 헤그세스의 만남이 결렬되었습니다. 2월 27일, 트럼프 대통령은 트루스 소셜에 모든 연방 기관이 Anthropic 기술 사용을 "즉시 중단"할 것을 지시했습니다. 같은 날 국방부는 Anthropic을 "공급망 위험"으로 지정했습니다. 이 지정은 그동안 외국 정보기관이나 테러 관련 조직에만 적용되던 것입니다. 미국 기업에 적용된 것은 전례가 없었습니다. 그리고 같은 날, OpenAI는 국방부와 계약을 체결했습니다.
Anthropic의 Claude 앱은 국방부 계약 해지 발표 다음 날 아이폰 앱스토어에서 OpenAI의 ChatGPT를 처음으로 제치고 1위에 올랐습니다. "#QuitGPT" 운동이 확산되어 250만 명 이상이 참여했고, ChatGPT 삭제가 295% 급증했다는 보도가 있었습니다.
3월 9일, Anthropic은 캘리포니아 연방법원과 워싱턴 DC 항소법원에 두 건의 소송을 제기했습니다. 같은 날, OpenAI와 Google DeepMind의 연구원 수십 명이 개인 자격으로 Anthropic을 지지하는 법정조언서를 제출했습니다. 3월 11일에는 Microsoft가 공식적으로 Anthropic에 대한 법적 지지를 선언하면서, "미국 스타트업에 국가안보 지정을 적용하는 것은 기술 산업의 공급망을 동결시킬 위험한 선례"라고 주장했습니다. Google과 OpenAI, Microsoft 등의 직원 900명 이상이 공개서한에 서명했습니다.
그리고 3월 26일 — 이번 주 목요일 — 캘리포니아 연방법원의 리타 린 판사가 예비금지명령을 내렸습니다. 43페이지에 달하는 판결문에서 린 판사는 국방부의 공급망 위험 지정과 트럼프 대통령의 사용 금지 지시를 모두 일시 차단했습니다. 판결문의 한 대목이 핵심을 찌릅니다: "미국 기업이 정부와의 의견 불일치를 표명했다는 이유로 잠재적 적대자이자 파괴자로 낙인찍힐 수 있다는 오웰적 관념은, 관련 법 어디에서도 뒷받침되지 않는다."
린 판사는 이것을 "전형적인 수정헌법 1조 보복(classic First Amendment retaliation)"이라 규정했습니다. Anthropic을 블랙리스트에 올리는 것이 국가안보 이익이 아니라 처벌을 위한 것으로 보인다고 판단한 것입니다. "문제가 작전 지휘 체계의 무결성이라면, 국방부는 그냥 Claude 사용을 중단하면 됩니다. 대신 이 조치들은 Anthropic을 처벌하기 위해 설계된 것으로 보입니다."
이 판결은 1주일 뒤 효력이 발생하며, 정부 측은 항소할 수 있습니다. 워싱턴 DC의 별도 소송은 아직 진행 중입니다. 이 사건은 끝나지 않았습니다.
세 번째 전쟁은 일터에서 벌어지고 있습니다.
3월 한 달 동안 발표된 주요 AI 관련 해고만 추리면 이렇습니다. Oracle은 2~3만 명을 해고하면서 80~100억 달러를 AI 인프라에 재투자한다고 밝혔습니다. Block(Square, Cash App의 모회사)은 4,000명을 내보냈는데, 이는 전체 직원의 약 40%에 해당합니다. CEO 잭 도시는 이 직무들이 "AI에 의해 불필요해졌다"라고 명시했습니다. Atlassian은 약 1,600명(전체의 10%)을 해고하면서 CTO를 교체하고, AI 중심의 CTO 2명을 새로 임명했습니다.
여기서 주목할 점은, AI에 의해 일자리를 잃는 사람과 AI 덕분에 가치가 올라가는 사람이 동시에 존재한다는 것입니다. PwC의 글로벌 AI 고용 바로미터에 따르면, AI 관련 스킬을 보유한 노동자는 그렇지 않은 노동자에 비해 56%의 임금 프리미엄을 받고 있습니다. 작년의 25%에서 두 배 이상 뛴 수치입니다.
3월에 동시에 터진 이 세 전쟁은, 겉보기에는 별개의 사건이지만 하나의 질문으로 수렴합니다.
AI는 인간의 사고를 확장하는 파트너인가, 인간을 대체하는 기계인가, 인간을 통제하는 무기인가?
모델 전쟁에서 GPT-5.4의 100만 토큰 컨텍스트는 두 가지 방향으로 갑니다. 한 편으로는 인간이 AI에게 더 풍부한 맥락을 제공하고, AI의 응답을 사고의 재료로 삼는 관계가 깊어집니다. 다른 한 편으로는 네이티브 컴퓨터 사용 기능이 보여주듯, AI가 인간의 개입 없이 독립적으로 작업을 수행하는 영역이 넓어집니다.
윤리 전쟁에서 Anthropic이 지킨 경계선은 바로 이 구분에 대한 것이었습니다. AI를 감시와 자율무기에 쓰는 것은, AI를 인간의 사고 확장이 아니라 인간에 대한 통제 도구로 전환하는 것입니다. 린 판사의 판결은 법적 판단이지만, 그 이면에는 "AI 기업이 자사 기술의 용도에 대해 경계선을 그을 권리가 있는가"라는 근본적 질문이 있습니다.
생존 전쟁에서도 같은 구분이 작동합니다. Oracle과 Block에서 벌어진 일은 AI가 독립적으로 작동하여 인간 노동을 대체하는 현상입니다. 반면 AI 스킬 프리미엄 56%는, AI와의 관계를 통해 자신의 능력을 확장하는 사람이 노동시장에서 가치를 인정받고 있다는 신호입니다.
이 매거진은 앞으로 매주, 이 질문을 구체적 사건에 대입하며 추적합니다.
Anthropic-국방부 사태는 한국에도 직접적 함의를 갖습니다. 한국 정부와 군도 AI 도입을 가속하고 있으며, AI 기업과의 계약에서 용도 제한 조항이 쟁점이 될 수 있습니다. 이번 사건은 "AI 기술의 공급자가 용도에 대해 발언권을 가질 수 있는가"라는 선례를 만들고 있습니다.
AI 기반 해고도 한국과 무관하지 않습니다. 한국의 대기업들이 AI 전환을 가속하면서, 어떤 직무가 대체되고 어떤 직무가 확장되는지를 구체적으로 추적할 필요가 있습니다. 다음 호에서 한국 기업의 AI 전환 현황을 다루겠습니다.
4월 3일 목요일 「심층 리포트」에서는 Anthropic-국방부 사태를 더 깊이 파고듭니다. 린 판사의 판결 이후의 전개, 이 사건이 AI 산업 전체의 규범에 미치는 영향, 그리고 "AI 기업은 자사 기술의 용도에 대해 어디까지 책임을 질 수 있는가"를 분석합니다.
· CNN, "Anthropic sues the Trump administration after it was designated a supply chain risk" (2026.3.9) · NPR, "Judge temporarily blocks Trump administration's Anthropic ban" (2026.3.26) · Axios, "Anthropic sues Pentagon over rare supply chain risk label" (2026.3.9) · CNBC, "Judge presses DOD on why Anthropic was blacklisted" (2026.3.24) · Anthropic 공식 블로그, "Where We Stand: Department of War" (2026.3.5) · Crescendo.ai, "Latest AI News and AI Breakthroughs: 2026" · RiskInfo.ai, "AI Insights: Key Global Developments in March 2026" (2026.3) · Radical Data Science, "AI News Briefs Bulletin Board for March 2026" (2026.3.19) · TechCrunch, "The biggest AI stories of the year (so far)" (2026.3.13) · PwC, "The Fearless Future: 2025 Global AI Jobs Barometer"
AI 트렌드 리포트 2026 | 매주 월요일·목요일 아침 발행 | 상상플랫폼 스튜디오