로컬 AI는 왜 다시 돌아오는가

Deepseek V4로 엿보는 지능인프라의 경제학

by 지적 지니



즉 기존 AI 서비스의 핵심 문법은 지능의 절약이었다.

기존 AI 서비스의 문법은 분명했다. 모든 문제에 최고급 모델을 쓰지 않는다. 쉬운 일은 작은 모델에게 보내고, 어려운 일은 큰 모델에게 보낸다. 이를 위해 서비스는 라우터를 만들고, 사용자의 요청을 분류하고, 프롬프트를 다듬고, 결과를 후처리하며, foundation model의 거친 능력을 사용자 친화적인 제품으로 포장했다. 이 구조에서 AI wrapper의 가치는 단순히 모델을 호출하는 데 있지 않았다. 그것은 모델을 언제, 어떻게, 얼마만큼 호출할지를 조절하는 데 있었다.


비싼 지능을 아껴 써야 했다. 토큰은 비용이었고, 긴 컨텍스트는 사치였고, 대형 모델 호출은 신중해야 하는 선택이었다. 그래서 AI 서비스는 사용자를 대신해 “이 문제는 작은 모델로 충분한가, 큰 모델을 써야 하는가”를 판단했다. 이 판단 능력이 곧 제품의 마진이 되었다. 사용자는 단순히 모델의 능력에 돈을 낸 것이 아니라, 모델 사용을 최적화해주는 중간층에 돈을 냈다.


그런데 DeepSeek류 모델이 보여주는 방향은 이 문법을 흔든다. 그것은 “지능을 아끼는 서비스”가 아니라, 지능으로 밀어붙이는 서비스의 가능성을 보여준다. 여기서 중요한 표현은 steamroll이다. 문제를 작게 쪼개고, 라우터로 선별하고, 작은 모델과 큰 모델을 배분하는 것이 아니라, 압도적으로 싼 지능을 대량으로 투입해 문제 전체를 밀어버리는 방식이다.


기존 AI 서비스는 “지능을 아껴 쓰는 산업”이었다

현재 대부분의 AI 서비스는 근간에 되는 모델(foundation model) 위에 올라간 포장지(wrapper)이다. 사용자는 ChatGPT, Claude, Gemini, DeepSeek 같은 원천 모델을 직접 쓰는 것이 아니라, 그 위에 특정 목적에 맞게 구성된 서비스를 사용한다. 예를 들어 문서 요약 서비스, 고객 응대 챗봇, 코드 리뷰 도구, 회의록 자동화 도구, 리서치 에이전트, 광고 카피 생성 도구가 그렇다.


이 서비스들은 대체로 다음과 같은 방식으로 가치를 만든다.


첫째, 사용자의 입력을 정리한다.
둘째, 적절한 모델을 고른다.
셋째, 프롬프트를 구성한다.
넷째, 여러 번 호출해 결과를 조합한다.
다섯째, 보기 좋은 형태로 후처리한다.
여섯째, 이 전체 과정을 안정적인 제품 경험으로 만든다.


이 과정 자체에는 분명한 가치가 있다. 하지만 동시에 이 구조는 한 가지 전제를 깔고 있다. 지능은 비싸기 때문에 최적화되어야 한다는 전제다.


그래서 많은 AI 서비스는 본질적으로 “AI를 많이 쓰게 하는 서비스”라기보다 “AI를 적절히 제한해서 쓰게 하는 서비스”였다. 사용자의 실제 욕망은 가능한 한 많은 문서, 많은 코드, 많은 데이터, 많은 후보, 많은 시뮬레이션을 한꺼번에 밀어 넣고 답을 얻는 것이다. 그러나 비용 구조상 그렇게 할 수 없었기 때문에 서비스는 사용자의 욕망을 조절했다.


이때 라우터 기반 AI wrapper는 일종의 지능 배전반이었다. 작은 요청에는 작은 모델, 복잡한 요청에는 큰 모델, 실패하면 재시도, 길면 요약, 너무 크면 청킹, 비싸면 캐싱. 이 모든 설계는 지능을 아끼기 위한 문법이었다.


DeepSeek V4가 보여준 것은 “싸고 큰 지능의 폭력성”이다

DeepSeek가 상징적으로 보여준 변화는 성능 하나가 아니다. 핵심은 지능 단가가 급격히 낮아질 때 서비스의 설계 원리가 바뀐다는 점이다.


지능이 비쌀 때는 질문을 잘 골라야 한다.
지능이 싸질 때는 질문을 많이 던지면 된다.

지능이 비쌀 때는 문서를 요약한 뒤 넣어야 한다.
지능이 싸질 때는 문서를 통째로 넣고 다시 요약시키면 된다.

지능이 비쌀 때는 하나의 답을 신중하게 받아야 한다.
지능이 싸질 때는 30개의 답을 만들고, 다시 10개를 비교하고, 다시 3개를 압축하면 된다.


지능이 비쌀 때는 모델 호출을 아껴야 한다.
지능이 싸질 때는 모델 호출이 사고 과정 자체가 된다.


이것이 steamroll이다. 문제를 섬세하게 피해 가는 것이 아니라, 문제 위에 계산량과 토큰과 반복을 쏟아부어 평탄화하는 방식이다. 인간이 머리로 한 번 깊이 생각해 해결하던 문제를, 모델 호출 수십 번, 문서 수백 페이지, 후보안 수천 개, 검증 루프 수십 회로 밀어붙이는 방식이다.


이 방식은 우아하지 않을 수 있다. 하지만 강력하다. 특히 지식노동의 많은 영역은 “한 번의 천재적 판단”보다 “무수한 후보 생성과 비교와 반복 검증”에 의해 개선된다. 싸고 확장 가능한 지능은 이 반복의 비용을 낮춘다.


Steamroll이 보편화되기 위한 두 조건

그러나 지능으로 밀어붙이는 미래가 보편화되려면 두 가지 조건이 필요하다.


첫째, 물처럼 싼 지능이다.


여기서 “싸다”는 말은 절대적인 가격표의 숫자를 뜻하지 않는다. 100만 토큰당 몇 달러인가, 월 구독료가 얼마인가의 문제가 아니다. 중요한 것은 사용자가 어떤 문제를 마주했을 때, 그 문제를 AI로 끝까지 밀어붙일 수 있을 만큼 지능 사용 비용이 충분히 낮게 체감되는가이다.


즉 AI 시대의 비용은 단순한 비용이 아니다. 그것은 풀 수 있는 문제와 풀 수 없는 문제를 나누는 경계선이다.

예전의 소프트웨어 비용은 대체로 기능 접근권의 문제였다. 돈을 내면 엑셀을 쓸 수 있고, 돈을 내지 않으면 쓸 수 없었다. 하지만 AI의 토큰 비용은 다르다. AI는 사용할 때마다 계산이 발생하고, 계산이 발생할 때마다 비용이 누적된다. 따라서 사용자는 기능을 “소유”하는 것이 아니라, 사고 과정을 “소모”한다.


이때 토큰 가격이 높다는 것은 단순히 비싸다는 뜻이 아니다. 사용자가 질문을 줄이고, 문서를 덜 넣고, 후보를 적게 만들고, 검증 루프를 생략하게 만든다는 뜻이다. 다시 말해 가격은 사용자의 사고 깊이를 제한한다.


어떤 문제는 한 번의 질문으로 풀리지 않는다. 문서 전체를 넣어야 하고, 여러 관점에서 다시 읽어야 하고, 수십 개의 대안을 만들어야 하고, 그 대안을 다시 평가해야 하며, 실패한 결과를 바탕으로 다시 시도해야 한다. 이 경우 AI 비용은 “얼마를 내느냐”가 아니라 “이 문제를 끝까지 풀 수 있느냐”의 문제가 된다.


따라서 steamroll을 가능하게 하는 싼 지능이란, 단지 저렴한 API가 아니다. 사용자가 “이걸 물어봐도 되나”, “토큰이 너무 많이 들지 않나”, “이 작업은 비싼 모델을 쓰기엔 아깝지 않나”라고 생각하지 않아도 되는 상태다. 지능이 수도처럼 흘러야 한다. 수도꼭지를 틀 때마다 물 한 컵의 가격을 계산하지 않듯이, AI를 부를 때마다 토큰 단가를 계산하지 않아야 한다.


steamroll은 심리적으로도 무제한에 가까워야 한다. 사용자가 비용을 의식하는 순간, 그는 문제를 밀어붙이는 사람이 아니라 호출량을 관리하는 사람이 된다. 그러면 AI는 사고의 증폭기가 아니라 또 하나의 예산 항목이 된다.


둘째, 완전무결한 종량제 연동성이다.

사용한 만큼 정확히 내야 한다. 그러나 여기서 중요한 것은 단순한 종량제가 아니다. 마진이 얇은 종량제여야 한다. 사용자가 실제 컴퓨팅 비용에 가까운 가격으로 지능을 구매할 수 있어야 한다. 그래야 대량 호출이 가능하다. 그래야 긴 컨텍스트를 마음껏 넣을 수 있다. 그래야 문제를 한 번에 해결하려 하지 않고, 열 번, 백 번 밀어붙일 수 있다.


이 지점에서 현재 OpenAI식 cloud AI 종량제의 한계가 드러난다. 문제는 컴퓨팅 용량 자체의 결여가 아니다. 문제는 사용자가 체감하는 가격에 꽤 두꺼운 마진이 포함되어 있다는 점이다. 그 마진은 제품 운영, 연구개발, 안정성, 브랜드, 안전 정책, 인프라, 수익성을 포함한 전체 기업 구조의 결과다. 기업 입장에서는 정당한 가격일 수 있다. 그러나 steamroll을 원하는 사용자에게는 다른 문제가 된다.


왜냐하면 steamroll은 반복과 과잉을 전제로 하기 때문이다.


두꺼운 마진은 반복과 과잉을 억제한다.


여기서 한 가지 반론이 가능하다. 그렇다면 OpenAI, Anthropic, Google 같은 cloud AI의 가격이 충분히 싸지면 local AI의 정당성은 사라지는 것 아니냐는 반론이다. 겉보기에는 타당하다. 클라우드 모델이 더 똑똑하고, 더 편하고, 더 자주 업데이트되며, 가격까지 내려간다면 굳이 로컬 AI를 쓸 이유가 약해지는 것처럼 보인다.

그러나 이 반론은 “싸다”는 개념을 절대 가격의 문제로 오해한다.


가격은 언제나 상대적이다. 만약 중소기업의 물류최적화 문제를 OpenAI와 같은 cloud AI의 모델이 충분히 저렴해져서 단일 요청으로 5$만으로 해결할 수 있다고 가정하자. 하지만 이 경우에 localAI가 3$의 전기료로 이를 해결할 수 있다면 사용자는 2$를 손해본 셈이다.


즉 중요한 것은 “AI가 싸졌는가”가 아니라, 내가 풀고 싶은 문제의 스케일에 비해 '가장 싼가'이다.


토큰 비용은 AI 시대의 연료비다. 자동차가 아무리 좋아도 연료가 비싸면 장거리 운전은 줄어든다. 전기가 아무리 싸 보여도 공장을 하루 종일 돌리기에는 여전히 민감한 비용이 된다. 마찬가지로 AI가 일반 사용자에게는 충분히 싸 보여도, 지능을 대량으로 태워 문제를 밀어붙이려는 사용자에게는 여전히 비쌀 수 있다.


이 때문에 cloud AI의 가격 인하는 local AI의 정당성을 완전히 제거하지 못한다. 오히려 AI 사용량이 늘어날수록 사용자는 두 종류의 지능을 구분하게 된다.


하나는 최고 성능이 필요한 지능이다.
이것은 클라우드에서 빌리면 된다.


다른 하나는 매일, 많이, 반복적으로, 눈치 보지 않고 써야 하는 지능이다.
이것은 로컬에 두고 싶어진다.


클라우드 AI가 싸질수록 사람들은 AI를 더 많이 쓰게 된다. 그리고 AI를 더 많이 쓸수록 일부 사용자는 역설적으로 로컬 AI의 필요성을 더 강하게 느낀다. 왜냐하면 사용량이 적을 때는 구독료와 API 비용이 편의성 비용으로 받아들여지지만, 사용량이 커지는 순간 그것은 생활비, 운영비, 사업비, 연구비의 핵심 항목이 되기 때문이다.


결국 local AI의 정당성은 클라우드 AI보다 항상 싸거나 항상 똑똑하다는 데 있지 않다. 그것은 한계비용을 사용자의 통제 아래로 끌어내리는 데 있다. 한 번 장비를 갖춘 뒤에는 반복 호출의 심리적 비용이 급격히 낮아진다. 사용자는 실패를 두려워하지 않고 다시 돌릴 수 있다. 문서를 더 넣을 수 있다. 후보를 더 만들 수 있다. 검증을 더 시킬 수 있다. 바로 이 지점에서 local AI는 cloud AI의 하위 호환이 아니라, 다른 경제성을 가진 지능 인프라가 된다.


따라서 OpenAI 같은 cloud AI가 싸지면 local AI의 정당성이 약화된다는 말은 절반만 맞다. 짧고 간헐적인 사용에서는 그렇다. 그러나 지능을 생활과 업무의 기본 연료로 쓰는 순간, 문제는 다시 바뀐다. 사용자는 최고 모델의 접근권뿐 아니라, 마음껏 태울 수 있는 사적 지능 연료를 원하게 된다.


AI 시대의 토큰 비용은 가격표의 숫자가 아니다.


그것은 문제 해결의 반경이다.

토큰이 비싸면 사람은 작은 질문만 한다.
토큰이 싸지면 사람은 큰 문제를 통째로 던진다.


토큰이 거의 공기처럼 느껴지면 사람은 문제를 해결하려 하지 않고, 문제 위에 지능을 쏟아부어 평탄화한다.

그때부터 AI는 도구가 아니라 인프라가 된다. 그리고 인프라가 된 지능은 전부 남의 서버에만 맡기기 어렵다.


steamroll은 반복과 과잉을 전제로 한다.
그런데 두꺼운 마진은 반복과 과잉을 억제한다.

따라서 클라우드 AI가 아무리 우수해도, 그 가격 구조가 사용자의 사고를 계속 제약한다면 일부 사용자는 다른 대안을 찾게 된다. 그 대안이 바로 local AI이다.

Local AI 수요는 성능 때문에만 생기지 않는다

많은 사람은 local AI를 성능의 문제로만 본다. 로컬 모델이 클라우드 모델보다 좋으냐, 나쁘냐를 묻는다. 그러나 이 질문은 절반만 맞다. local AI의 핵심 가치는 최고 성능이 아니라 마음껏 쓸 수 있음에서 나올 수 있다.


클라우드 AI는 편하다. 항상 최신 모델을 쓸 수 있다. 설치가 필요 없다. 유지보수도 필요 없다. API만 연결하면 된다. 성능도 대체로 가장 앞서 있다. 이 장점은 매우 크다. 그래서 현재 local AI의 잠재 수요는 대부분 cloud AI로 흡수되고 있다. 사용자는 로컬 서버를 세우기보다 ChatGPT Plus, Claude Pro, Gemini Advanced, API 크레딧을 결제한다.


그러나 cloud AI는 그 편리함의 대가로 상당한 마진을 포획한다. 개인 사용자나 중소기업 입장에서는 어느 순간부터 “이 정도 사용량이면 차라리 내 장비를 사는 게 낫지 않나”라는 계산이 가능해진다.


특히 다음과 같은 사용자층에서 임계점이 올 수 있다.

중소기업 내부 문서 자동화
개인 개발자의 코드 생성과 테스트 자동화
소규모 연구팀의 논문·자료 분석
디자인·마케팅 에이전시의 대량 카피 생성
개인 파워유저의 지식관리와 자동화
가정용 AI 비서와 로컬 파일 검색
오프라인 환경에서도 돌아가야 하는 업무 시스템


이들에게 필요한 것은 항상 최고 모델이 아니다. 오히려 필요한 것은 충분히 좋은 모델을 눈치 보지 않고 계속 돌릴 수 있는 권리다.


실생활 예시: 이사 준비는 왜 steamroll이 필요한가

예를 들어 한 사람이 이사를 준비한다고 해보자.

표면적으로 이사는 단순한 일처럼 보인다. 집을 찾고, 계약하고, 짐을 싸고, 이사업체를 부르면 된다. 그러나 실제로는 작은 판단과 문서와 비교가 폭발하는 작업이다.

부동산 매물 수십 개를 비교해야 한다.
관리비, 보증금, 월세, 대출 조건을 따져야 한다.
등기부등본과 건축물대장을 읽어야 한다.
계약서 특약을 검토해야 한다.
이사업체 견적을 비교해야 한다.
가전 이전 설치 일정을 맞춰야 한다.
인터넷, 도시가스, 전입신고, 확정일자, 주소 변경을 처리해야 한다.
새 집의 가구 배치를 미리 시뮬레이션해야 한다.
버릴 물건과 가져갈 물건을 분류해야 한다.
이사 당일 체크리스트를 만들어야 한다.


이 작업은 하나하나가 어렵다기보다, 전체가 너무 번거롭다. 기존 방식에서는 사용자가 AI에게 몇 번 물어본다. “이 계약서 괜찮아?”, “이사 체크리스트 만들어줘”, “이 매물 비교해줘.” 그러나 사용량 제한이나 비용을 의식하면 여기서 멈춘다.


steamroll 방식은 다르다.


사용자는 매물 캡처 50개, 계약서 초안, 관리비 내역, 지도 정보, 출퇴근 위치, 보유 가구 치수, 이사업체 견적서, 가족 생활패턴을 전부 넣는다. AI는 매물을 점수화하고, 위험 조항을 뽑고, 통근 시간을 계산하고, 보증금 리스크를 정리하고, 가구 배치안을 여러 개 만들고, 이사 당일 시간표를 짜고, 누락된 행정 절차를 체크하고, 견적서의 이상 가격을 탐지한다. 그리고 다시 사용자가 “더 싸게”, “더 안전하게”, “출퇴근 중심으로”, “아이 키우기 좋은 기준으로”, “반려동물 기준으로”라고 말하면 수십 번 다시 돌린다.


이것이 steamroll이 필요한 상황이다.
문제가 하나의 어려운 질문이 아니라, 수많은 작은 판단의 덩어리일 때 AI는 많이 써야 한다.
그러나 클라우드 AI의 비용과 제한이 있으면 사용자는 이 과정을 마음껏 돌리지 못한다.
반대로 local AI가 충분히 싸고 빠르다면, 사용자는 이사라는 생활 이벤트 전체를 AI로 밀어붙일 수 있다.

이런 사용 경험을 한 번 겪으면 AI는 검색창이 아니라 생활 인프라가 된다.


Local AI는 “자가발전기”가 될 수 있다

local AI의 미래를 이해하려면 전기와 비교하는 것이 좋다. 대부분의 사람은 평소에 전력망을 쓴다. 발전기를 직접 돌리지 않는다. 전력망은 싸고 안정적이며 편하다. 그러나 병원, 데이터센터, 공장, 연구소, 일부 가정은 자가발전기나 UPS를 둔다. 평소에 전력망이 더 우수해도, 끊기면 안 되는 순간이 있기 때문이다.


local AI도 같은 위치를 가질 수 있다.


평소에는 cloud AI가 더 강력할 수 있다. AGI에 가까운 모델이 클라우드에서 먼저 도달할 수도 있다. 최신 모델은 클라우드에서만 제공될 수도 있다. 로컬 모델은 항상 한두 세대 뒤처질 수도 있다. 그래도 local AI의 수요는 사라지지 않는다. 왜냐하면 local AI의 가치는 최고 성능이 아니라 접근권,*지속성, 독립성, 무제한성에 있기 때문이다.


클라우드가 장애를 일으켜도 돌아간다.
요금제가 바뀌어도 돌아간다.
검열이나 정책 제한이 바뀌어도 최소한의 작업은 계속된다.
인터넷이 불안정해도 내부 문서 처리는 가능하다.
민감한 데이터를 외부로 보내지 않아도 된다.
매일 반복되는 개인 자동화 작업을 사실상 한계비용 0에 가깝게 돌릴 수 있다.


이것은 성능 경쟁과 다른 축이다. cloud AI는 도시 전력망이고, local AI는 집 안의 자가발전기이자 배터리이다. 전력망이 더 강력하다고 해서 자가발전기의 가치가 사라지지 않는다. 오히려 사회가 전기에 더 의존할수록 자가발전기의 가치는 커진다.


AI도 마찬가지다. 사회가 지능에 더 의존할수록, 사람들은 지능의 백업을 원하게 된다.


집집마다 AI가 보급되는 이유는 “똑똑해서”가 아니라 “필수 유틸리티가 되기 때문”이다


local AI가 집집마다 보급될 가능성은 단순히 모델 성능 향상 때문이 아니다. 그것은 AI가 필수 유틸리티가 되기 때문이다.


지금의 AI는 아직 많은 사람에게 “필요할 때 접속하는 서비스”이다. 그러나 앞으로 AI가 일정 관리, 문서 정리, 가족 사진 검색, 세금 자료 정리, 계약서 검토, 학습 보조, 건강 기록 요약, 가계부 분석, 코딩 보조, 업무 자동화, 장보기 계획, 여행 계획, 보험 청구, 민원 작성까지 들어오면 지위가 바뀐다.


AI는 앱이 아니라 생활 운영체제에 가까워진다.

그 순간 사람들은 묻게 된다.


“이걸 매번 클라우드에 보내야 하나?”
“내 가족 문서와 사진과 계약서를 전부 외부 서버에 올려야 하나?”
“요금이 오르면 내 생활 자동화가 멈추나?”
“인터넷이 끊기면 내 지능 인프라도 끊기나?”
“내가 원하는 만큼 반복 실행할 수 없나?”


이 질문들이 쌓이면 local AI는 취미가 아니라 인프라가 된다. 냉장고, 공유기, NAS, 공기청정기, 보조배터리처럼 가정의 기본 장치가 될 수 있다. 처음에는 파워유저와 중소기업이 먼저 쓸 것이다. 그다음에는 소형 AI 박스, AI 공유기, AI NAS, AI 홈서버, AI 탑재 PC의 형태로 내려올 것이다.


중요한 점은 이때 사용자가 local AI를 선택하는 이유가 “클라우드보다 더 똑똑해서”가 아닐 수 있다는 것이다. 사용자는 이렇게 말할 가능성이 크다.


“최고 모델은 클라우드에서 쓰면 된다. 그런데 매일 굴리는 일은 내 쪽에서 돌리고 싶다.”

이 구분이 local AI의 장기 수요를 만든다.


AI wrapper의 위기: 마진층이 얇아진다

이 변화가 위협하는 것은 단순히 클라우드 모델 회사가 아니다. 더 직접적으로 위협받는 것은 라우터 기반 AI wrapper들이다. 기존 wrapper는 foundation model의 능력을 사용자 친화적으로 바꾸고, 모델 선택과 호출 최적화를 대신하며, 그 과정에서 가치를 만들었다. 그러나 지능 단가가 충분히 낮아지면 사용자는 굳이 세밀한 최적화를 원하지 않을 수 있다.


예전에는 “적절한 모델을 골라주는 것”이 가치였다.
앞으로는 “그냥 충분히 큰 지능을 마음껏 쓰게 해주는 것”이 가치가 될 수 있다.

예전에는 “토큰을 아껴주는 것”이 가치였다.
앞으로는 “토큰을 아낄 필요 없게 해주는 것”이 가치가 될 수 있다.

예전에는 “작은 모델과 큰 모델을 효율적으로 배분하는 것”이 문법이었다.
앞으로는 “문제 전체를 반복 호출로 평탄화하는 것”이 문법이 될 수 있다.


이때 wrapper의 마진은 압박받는다. 사용자가 보기에 wrapper가 제공하는 가치가 “모델 호출을 예쁘게 감싼 것”에 머문다면, 사용자는 더 싼 원천 모델이나 로컬 모델로 이동할 것이다. 반대로 살아남는 wrapper는 단순 호출 대행이 아니라, 실제 업무 맥락, 데이터 연결, 권한 관리, 감사 로그, 협업 흐름, 도메인별 검증, 법적 책임까지 포함하는 두꺼운 업무 시스템이 되어야 한다.


즉 wrapper의 미래는 두 갈래다.

얇은 wrapper는 토큰 가격 하락에 압축된다.
두꺼운 workflow system은 여전히 살아남는다.


결론: Local AI는 클라우드 AI의 반대편이 아니라, 그 이후의 안전장치다

DeepSeek가 암시하는 미래는 단순한 저가 모델 경쟁이 아니다. 그것은 지능 사용 방식의 변화다. 지금까지 우리는 지능을 아껴 쓰는 방식으로 AI 서비스를 설계했다. 그러나 지능이 충분히 싸지고, 충분히 확장 가능해지고, 사용량에 따른 비용이 얇은 마진으로 연결된다면, 사람들은 지능을 아끼지 않고 문제에 쏟아붓기 시작할 것이다.


그 미래에서 local AI는 최고 성능 모델의 경쟁자가 아닐 수 있다. 오히려 그것은 클라우드 AI 시대의 자가발전기이다. 클라우드가 더 강력해도, 로컬은 필요하다. 클라우드가 AGI에 가까워져도, 로컬은 필요하다. 왜냐하면 인간은 가장 중요한 유틸리티에 대해 항상 두 가지를 원하기 때문이다.


하나는 최고의 성능이다.
다른 하나는 끊기지 않는 자기 소유의 접근권이다.

cloud AI는 전자를 제공한다.
local AI는 후자를 제공한다.


따라서 local AI의 보급은 “로컬 모델이 클라우드 모델을 이기느냐”의 문제가 아니다. 더 정확한 질문은 이것이다.


지능이 생활 인프라가 되었을 때, 사람들은 그것을 전부 남의 서버에 맡길 것인가?


아마 그렇지 않을 것이다. 사람들은 최고급 지능은 클라우드에서 빌리고, 매일 쓰는 반복적 지능은 자기 손 안에 두려 할 것이다. 그것이 local AI의 자리다. 성능의 왕좌가 아니라, 생활 지능의 배터리. 최첨단 모델의 대체재가 아니라, 지능 정전 시대의 보험. 그리고 사용자가 클라우드에서는 감히 마음껏 하지 못했던 문제들을, 토큰과 반복과 싼 계산으로 밀어붙이게 해주는 사적인 steamroll 장치이다.

작가의 이전글탁월한 도구, 그리고 우리가 말하지 않았던 것들