AI 버블을 해체한다. 3부 - 근미래편

닷컴 프레임을 넘어 B2C·인프라·개인 AGI로 재정의하기

by 마나월드ManaWorld
AI-3.png AI 버블론을 해체한다. 3부 - 닷컴 프레임을 넘어 B2C·인프라·개인 AGI로 재정의하기


7. 근미래형(좁은) AGI: "대화형 챗봇"에서 "개인 생산성 OS"로

7-1. SF급 AGI가 아니라 '현실적 AGI’의 정의

AGI라는 단어를 들으면 많은 사람들이 영화를 떠올린다.

스스로 생각하고, 감정을 갖고, 인간을 넘어서는 존재.

터미네이터의 스카이넷이나 영화 "그녀(Her)"의 사만다 같은 이미지다.


하지만 내가 말하는 AGI는 그게 아니다.

SF급 완전 자율 지능이 아니라,

경제적으로 "사람 한 명 몫"을 꽤 넓게 대신하는 수준을 말한다.

B2C 관점에서 현실적으로 돈이 되는 AGI다.

이걸 정의하면 이렇다.


멀티스텝 작업 수행:

단순히 질문에 답하는 게 아니다.

계획을 세우고, 실행하고, 중간에 수정한다.

"이 주제로 발표자료 만들어줘"라고 하면,

목차를 짜고, 내용을 채우고, 디자인을 입히고, 대본까지 만든다.

한 번의 지시로 끝까지 간다.


도구 사용:

대화만 하는 게 아니다.

문서를 열고, 스프레드시트를 수정하고,

이메일을 보내고, 웹을 검색하고, 예약을 잡는다.

실제로 뭔가를 “한다.”

말로만 알려주는 게 아니라, 내 대신 실행한다.


결과물 패키징:

초안을 던져주고 "네가 알아서 다듬어"가 아니다.

제출할 수 있는 수준의 완성물을 만들어낸다.

PPT, 보고서, 이메일, 제안서.

검토만 하면 바로 쓸 수 있는 상태.

80점이 아니라 95점짜리를 내놓는다.


비용과 지연이 사용 가능한 수준:

아무리 좋아도 한 번 쓰는 데 10분 걸리고 1만원이 들면 안 된다.

일상적으로 쓸 수 있는 속도와 비용이어야 한다.

커피 한 잔 값으로 하루 종일 쓸 수 있어야 대중화된다.


이 네 가지가 충족되면,

사용자 입장에서는 "AGI"처럼 느낀다.


완벽한 자율 지능이 아니어도,

내 옆에 유능한 실무자가 생긴 것 같은

체감이 있으면 그게 근미래형 AGI다.


일상적인 예를 하나 들어보자.

맛집 검색과 예약이다.

지금 방식은 이렇다.

내가 직접 지도 앱을 열고,

"강남 맛집"을 검색하고,

리뷰를 하나하나 읽고, 별점을 비교하고,

예약 가능 여부를 확인하고,

전화하거나 앱으로 예약하고, 캘린더에 등록한다.


각 단계마다 앱을 오가고,

탭을 열고, 비교하고, 결정해야 한다.


간단한 저녁 약속 하나 잡는 데 15분이 걸린다.


근미래형 AGI가 있으면 이렇게 바뀐다.

“오늘 저녁 7시, 강남에서 2명,

조용한 분위기, 1인 3만 원대로 예약해줘.”


에이전트가 내 조건을 수집한다.

지도와 예약 플랫폼을 검색한다.

후보 3~5개를 비교해서 보여준다.

거리, 평점, 분위기, 예약 가능 시간, 메뉴와 가격대.


내가 "두 번째 걸로"라고 하면,

예약을 실행하고, 캘린더에 등록하고, 길찾기 링크와 알림까지 붙여준다

.

“A랑 B 중에 어디가 더 조용해?”

“B가 리뷰에서 '대화하기 좋다’는 언급이 많아.

대신 A가 10분 더 가까워.”


이런 대화를 거쳐서 최종 결정을 내리고, 실행까지 간다.


이건 기술적으로 이미 가능한 수준이다.

관건은 권한 연동, 신뢰성, 그리고 실패했을 때의 복구다.

예약이 안 됐는데 됐다고 하면 안 된다.

잘못된 식당을 예약하면 안 된다.


하지만 방향은 명확하다.

"내가 조작하는 것"에서 "내가 지시하고 확인하는 것"으로 바뀌는 거다.


7-2. 하이브리드 구조의 필연성: 로컬 + 서버

이 근미래형 AGI가 어떻게 구현되는가?


답은 하이브리드다.

폰이나 PC에서 기본 처리를 하고,

무거운 작업은 서버에서 한다.

이건 취향이 아니라 필연이다. 왜 그런지 쪼개보자.


폰/PC(로컬)에서 하는 일:

• 즉각적인 반응이 필요한 것.

키보드 제안, 짧은 요약, 간단한 분류.

내가 타이핑하는 순간 바로 반응해야 하는 것들.

서버 왕복을 기다리면 답답하다.


• 개인정보가 민감한 것.

내 파일, 내 메모, 내 일정, 내 연락처.

이걸 매번 서버로 보내기 싫다.

로컬에서 처리하면 밖으로 안 나간다.


• 비용을 아껴야 하는 것.

매번 서버 호출하면 돈이 너무 든다.

간단한 작업까지 클라우드 요금을 내면 월말에 청구서가 무섭다.


• 오프라인에서도 돌아가야 하는 것.

비행기 안, 지하철, 와이파이 없는 곳.

기본적인 건 인터넷 없이도 되어야 한다.


서버(클라우드)에서 하는 일:

• 고품질 생성.

긴 글, 복잡한 PPT, 고해상도 이미지.

로컬 GPU로는 한계가 있다.

진짜 좋은 결과물을 원하면 서버의 대형 모델을 불러야 한다.


• 긴 추론.

여러 자료를 읽고 종합해서 판단하는 작업.

“이 10개 문서를 비교해서 결론 내줘” 같은 건 로컬 모델로는 버겁다.


• 대형 컨텍스트.

수십 페이지 문서를 한꺼번에 분석.

100페이지짜리 계약서를 읽고 위험 조항을 찾아달라고 하면,

그 전체를 한 번에 처리할 수 있는 건 대형 모델뿐이다.


• 최신 정보.

웹 검색, 실시간 데이터.

로컬에 저장된 건 과거 정보다.

“오늘 환율” "지금 뉴스"는 서버가 필요하다.


중간층(캐시/메모리/라우팅):

여기가 사실 제일 중요하다.

최근 작업 상태를 저장해서 이어서 처리한다.

"아까 그 문서 말이야"라고 하면 뭘 말하는지 안다.


"이건 로컬에서 할까, 서버로 보낼까?"를 자동 판단한다.

비용이 큰 요청은 배치로 묶어서 처리한다.


이 구조가 왜 중요한가?

B2C에서 사람들이 돈을 내는 이유와 직결되기 때문이다.


즉각성은 폰/PC가 담당한다.

내가 뭘 하려는지 빠르게 잡아주고,

초안이나 구조를 즉시 제시한다.

기다림 없이 바로 시작할 수 있다.


완성도는 서버가 담당한다.

최종 결과물을 "제출 가능한 수준"으로 뽑아준다.

품질이 중요한 순간에는 서버의 힘을 빌린다.


사용자 경험은 이렇게 된다.

“나는 메인만 던진다. 에이전트가 알아서 패키징한다.”


시간은 조금 걸려도 괜찮다. 품질이 중요하니까.

그리고 내가 직접 노가다 뛰는 것보다는 훨씬 빠르니까.


8. 개인 PC AGI의 현실적 구현: “서버 RAG를 개인에게 내려보내기”

8-1. PC형 AGI의 핵심 유스케이스

개인 PC에서 AGI가 돌아간다고 상상해보자.

가장 가치 있는 순간은 언제인가?


“몇 달 전에 작성한 최종본 문서 찾아줘.”

이 한 문장이다.


내 컴퓨터 어딘가에 있는 파일.

이름이 뭐였는지 기억 안 난다.

"제안서_최종.docx"였나, "프로젝트A_v3_final.pptx"였나.

폴더도 헷갈린다. 바탕화면? 문서 폴더? 다운로드?


하지만 내용은 기억난다.

“그때 A 프로젝트 관련해서 최종 제출한 거.

목차가 이랬고, 결론이 이런 방향이었어.”


지금 이걸 찾으려면?

탐색기 열고, 폴더 뒤지고,

"최종"으로 검색해보면 비슷한 파일이 20개 나오고,

하나하나 열어보고, “이거 아닌데”, “이것도 아닌데”,

결국 30분 만에 찾거나 포기한다.


PC형 AGI가 있으면?

“그 문서 찾아줘.

A 프로젝트 관련 최종 제출본.

몇 달 전에 만든 거야.”


에이전트가 내 파일을 인덱싱해뒀다가,

파일명뿐 아니라 내용을 기준으로 의미 기반 검색을 해서, 후보 3개를 보여준다.


“이 중에 하나인 것 같아.

1번은 10월 15일에 만든 제안서,

2번은 10월 22일 수정본,

3번은 11월 3일 최종본이야. 미리보기 볼래?”


“3번 열어줘.”

여기서 끝이 아니다.


“그 문서 기반으로 이번 분기 발표자료 만들어줘.

슬라이드 10장, 톤은 임원 보고용으로.”


“요약해서 팀장한테 보낼 이메일 초안 만들어줘. 핵심 3개만.”


“관련된 다른 문서들도 같이 묶어서 폴더 하나로 정리해줘.”


로컬 데이터에 접근할 수 있다는 게 가치의 핵심이다.

클라우드 AI는 내 파일을 모른다.

내가 일일이 복사해서 붙여넣어야 한다.

100페이지 문서를 AI에게 보여주려면 직접 열어서,

복사해서, 채팅창에 붙여넣어야 한다.

귀찮고, 느리고, 빠뜨리기 쉽다.


하지만 로컬 에이전트는 내 컴퓨터 전체를 알고 있다.

내가 뭘 만들었는지, 어디에 저장했는지, 언제 수정했는지.

그래서 "내 맥락"에 맞는 작업이 가능해진다.

이게 클라우드 AI와 로컬 AGI의 결정적 차이다.


8-2. 로컬 RAG의 역할

이걸 기술적으로 구현하는 게 로컬 RAG(Retrieval-Augmented Generation)다.

원리는 간단하다. 일반인도 이해할 수 있게 설명하면 이렇다.


1단계: 인덱싱

내 파일들(문서, PDF, PPT, 이메일, 메모)을 미리 분석해둔다.

각 파일의 내용을 읽고,

"이 파일은 어떤 주제고, 어떤 키워드가 있고, 어떤 맥락이다"를

정리해서 검색 가능한 형태로 저장한다.

마치 도서관에서 책마다 색인 카드를 만들어두는 것과 비슷하다.


2단계: 검색

내가 질문하면, 관련된 조각만 찾아서 뽑는다.

전체 파일을 다 읽는 게 아니라,

“이 질문에 답하는 데 필요한 부분만” 빠르게 찾아낸다.

도서관에서 "경제 위기"에 대해 찾으려면 모든 책을 다 읽는 게 아니라,

색인 카드에서 관련 책을 먼저 찾는 것처럼.


3단계: 생성

그 조각을 LLM에 넣고 답변을 생성한다.

“이 내용을 바탕으로 요약해줘.”

“이걸 기반으로 PPT 만들어줘.”

LLM은 내가 찾아준 조각을 "참고자료"로 받아서,

거기에 기반한 답을 만든다.


왜 이게 중요한가?

"전체를 다 넣으면 느려진다"는 문제를 해결하기 때문이다.


내 컴퓨터에 파일이 수천 개 있다.

문서, 이미지, PDF, 메모, 이메일 백업…

이걸 매번 전부 LLM에 넣을 수는 없다.


토큰 한계도 있고, 시간도 오래 걸리고, 비용도 많이 든다.


100페이지 문서 10개를 동시에 넣으면

모델이 버벅거리거나 아예 안 된다.


RAG는 “필요한 것만 뽑아서 넣는” 시스템이다.

그래서 데이터가 아무리 많아도 속도와 비용을 통제할 수 있다.

1테라바이트 파일이 있어도,

실제로 모델에 들어가는 건 질문에 관련된 몇 페이지뿐이다.


이건 사실 대형 LLM 회사들이 서버에서 하던 방식이다.

기업용 AI, 검색 증강 생성, 지식 기반 챗봇.

그걸 개인 PC로 내려보내는 것이다.


"서버 RAG의 개인화 버전"이라고 보면 된다.


8-3. 라우팅: 로컬 vs 클라우드

모든 걸 로컬에서 할 수는 없다.

어려운 질문, 복잡한 생성,

최신 정보가 필요한 작업은 서버의 대형 모델을 불러야 한다.


그래서 라우팅이 필요하다.

"이건 로컬에서 처리할까, 클라우드로 보낼까?"를

자동으로 판단하는 것이다.


로컬에서 처리하는 것:

파일 찾기, 간단한 요약, 분류, 태깅

민감한 개인정보가 포함된 작업 (계약서, 의료 기록, 재무 정보)

빠른 반응이 필요한 것 (타이핑 중 제안, 실시간 편집 도움)


클라우드로 보내는 것:

고품질 글쓰기, 복잡한 추론, 수학 문제

이미지/영상 생성 (로컬 GPU로는 너무 느리다)

웹 검색, 최신 정보 필요한 것


클라우드로 보낼 때의 원칙:

전문(全文)을 보내지 않는다.

필요한 조각만, 또는 요약본만.

민감정보는 익명화하거나 로컬에서만 처리.

"이 부분만 분석해줘"라고 필요한 것만 보낸다.


이 라우팅이 자동으로 잘 돌아가면, 사용자는 신경 쓸 필요가 없다.

그냥 "이거 해줘"라고 하면,

에이전트가 알아서 어디서 처리할지 결정한다.


쉬운 건 로컬에서 바로,

어려운 건 서버로 보내서 좋은 결과를 받아온다.

사용자는 그 구분을 몰라도 된다.


8-4. 진짜 변화는 '설정 노동’의 소멸

여기서 캡컷을 다시한번 더 깊이 가보자.


예전에 영상에 자막을 넣으려면 어떻게 했는가?

영상을 재생하면서 듣고,

타이핑하고, 타이밍을 맞추고,

시작점과 끝점을 조절하고,

폰트와 위치와 크기를 정하고,

줄바꿈을 다듬고.


10분짜리 영상에 자막 넣는 데 1시간이 걸렸다.

전문 편집자들도 이 작업은 "순수 노가다"라고 불렀다.


캡컷이 나오면서 바뀌었다.

“자동 자막” 버튼을 누르면 초안이 나온다.

완벽하진 않다. 오타도 있고, 타이밍이 어긋나는 부분도 있다.

하지만 "처음부터 끝까지 수작업"하는 것과는 체감이 완전히 다르다.


이제 사용자는 검수와 수정만 하면 된다.

90%는 맞고, 10%만 고치면 된다.

1시간 걸리던 게 15분이 됐다.


AI 에이전트도 같은 방향으로 간다.

하지만 한 단계 더 나아간다.


지금 워크플로우 자동화를 세팅하려면 어떻게 하는가?

API 키를 발급받고,

문서를 읽고,

코드를 복사하고,

환경을 설정하고,

에러가 나면 구글링하고,

파라미터를 튜닝하고.


깃헙에 좋은 프로젝트가 있어도,

따라 하다가 에러 나면 거기서 멈춘다.


일반인은 엄두를 못 낸다. 개발자도 귀찮아한다.


근미래에는?

“원하는 결과만 말하면 설정은 에이전트가 알아서.”

“내 이메일 중에서 중요한 것만 하루에 한 번 요약해서 알려줘.”


에이전트가 이메일 앱에 연결하고,

필터 조건을 세팅하고,

요약 형식을 정하고,

알림 시간을 설정한다.


사용자는 "뭘 원하는지"만 말하면 된다.

어떤 API를 쓸지, 어떤 파라미터를 넣을지는 에이전트가 결정한다.


사실 이건 이미 온라인에서 시작됐다.

블로그 글쓰기 워크플로우를 대행해주는 서비스가 있다.

키워드 조사 → 경쟁 글 분석 → 구조(목차) 생성 → 초안 작성 → SEO 최적화 → 이미지 삽입 → 예약 발행.


사람은 주제만 던지고, 나머지는 워크플로우가 처리한다.


문제는 아직 "설정"이 복잡하다는 거다.

옵션이 많고, 버튼이 많고, 도구 간 연결을 사람이 직접 해야 하고,

실패하면 어디서 깨졌는지 이해해야 한다.


그래서 지금은 "자동화는 됐는데, 운영은 전문가용"인 상태다.


LLM이 이 설정 자체를 대행해주면? 그게 진짜 혁명이다.


사용자:

“내 블로그 스타일은 이런데, 일주일에 3개 정도 쓰고,

정보형 위주로, 너무 마케팅 티 나지 않게.”


에이전트가:

적합한 워크플로우를 선택하고,

필요한 툴을 연결하고, 권한을 요청하고,

파라미터를 자동 세팅하고, 테스트해서 수정까지 한다.


이건 '자동화 도구’가 아니라 ‘개인 운영자’다.


여기서 트레이딩/퀀트를 한번 생각해보자.

지금 개인이나 "괴짜"들은

증권사 API를 이용해서 개인적인 트레이딩 시스템을 만든다.


깃헙에 예제도 있고,

오픈소스 전략도 있고,

백테스트 프레임워크도 있다.


하지만 대부분은 연결/인프라/데이터 처리에서 막힌다.

전략 자체보다 환경 설정이 더 어렵다.


그런데 AGI가 이걸 대신해주면?

“이 전략 로직을 내 증권사 API에 연결해서 백테스트 돌려줘.”

“파라미터 최적화해서 결과 리포트 만들어줘.”

“실시간으로 조건 맞으면 알림 보내줘.”


이건 "수익을 보장하는 혁명"이 아니다.

결과는 여전히 로직과 운용 역량에 달려 있다.

그건 원래도 전문집단 내부에서 역량 싸움이었다.


달라지는 건 "참가권"이 열린다는 것이다.

예전에는 상상도 못했고 "전문집단의 일"이라고 생각했던 게,

이제 개인도 구현할 수 있게 된다.


캡컷이 영상편집의 진입장벽을 없앴듯이,

AI 에이전트가 트레이딩 시스템 구축의 진입장벽을 없앤다.


물론, 캡컷을 쓴다고 다 유튜버가 되는 건 아니다.

하지만 캡컷이 없던 시절엔 영상편집 자체가 진입장벽이었다.


그 장벽이 사라졌다.


결과물의 격차는 이제 "도구를 가졌냐"가 아니라

"투입한 리소스와 운영 역량"에서 난다.


이 단계로 가면 구독은 "편리해서 쓰는 앱"이 아니라 "없으면 불편한 업무 인프라"가 된다.


마치 지금 PC 없이 일하기 어려운 것처럼,

AI 에이전트 없이 일하기 어려워지는 것이다.


결국 AI가 바꾸는 건 "일을 대신하는 것"이 아니라 “일을 시작하는 방법”이다.

예전에는 도구를 배우고, 설정하고, 조작해야 했다.

이제는 원하는 결과를 말하면 된다.


이 전환이 AI가 B2C에서 돈이 되는 지점이다.



마나월드 코멘트:

다음주 수요일이면 ‘AI버블론을 해체한다.’ 시리즈는 4부로 일단 마무리됩니다.


그 다음엔
12월 13일 한국은행 조치관련, 한국경제 3부, 부동산: 우리가 외면한 불편한 이야기, AI버블론 Q&A,

그리고 "AGI는 이렇게 온다: ‘개인 생산성 OS’가 재편할 세계"


앞으로 할 이야기가 많네요.

이 흐름이 한 번 정리되면, 토요일 연재로 다시 돌아가겠습니다.



AI 버블론을 해체한다. 시리즈 - 전체 목차


0. 프롤로그


1. 버블론이 성립하려면 무엇을 ‘버블’이라 정의해야 하는가

• 1-1. 버블의 정의를 분해한다

• 1-2. “AI = 닷컴버블” 프레임이 놓치는 것


2. 닷컴과 AI의 구조적 차이 1: 수익의 실존과 매출 구조

• 2-1.닷컴의 문제: 돈을 벌기 전 비용이 앞섰다

• 2-2. AI의 현실: 이미 돈이 돈을 만든다


3. 구조적 차이 2: 유동성의 ‘질적 편중’이 이미 발생했다

• 3-1.닷컴: “.com이면 다 간다” → 쓰레기까지 동반 상승

• 3-2. AI: 자본이 처음부터 상위 레이어에 집중된다


4. B2C 핵심 전환: “편리함 시장”이 아니라 “경쟁력(결과물) 시장”

• 4-1. 인터넷 B2C와 AI B2C의 동기 차이

• 4-2. 시간 절약보다 결과물이 중요해지는 이유

• 4-3. 실시간 검증 시장의 탄생

• 4-3-1. 사례: ‘자막 노가다’를 버튼으로 바꾼 순간


5. 올인원이 2차 시장을 먹을 수 있나: '리소스 트레이드오프’로 보는 공존 구조

• 5-1. 올인원의 구조적 한계: 범용성-퀄리티-속도의 삼각관계

• 5-2. 사용자의 실제 최적 행동 패턴

• 5-3. 2차 시장이 살아남는 조건

• 5-3-2. 컴플라이언스는 부가 옵션이 아니다


6. “AI는 닷컴과 다른 '산업 업그레이드 엔진’이다”

• 6-1. 닷컴 장비 수혜와 AI 인프라 수혜의 ‘차원’ 차이

• 6-1-1. 전력시장은 '스토리’가 아니라 '안정성’으로 검증되는 시장이다

• 6-1-2. 인프라가 '깔린다’는 것과 '빨리 깔린다’는 것은 다르다

• 6-2. 전후방 연관효과: 낙수가 아니라 연쇄다

• 6-3. 기저전력과 배터리의 현실

• 6-3-1. 한국의 승부처: 전력·그리드·백업이 만드는 인프라 연쇄

• 6-4. 2부의 결론: 버블 논쟁의 프레임을 바꾸는 문장


7. 근미래형(좁은) AGI: “대화형 챗봇”에서 “개인 생산성 OS”로

• 7-1. SF급 AGI가 아니라 ‘현실적 AGI’의 정의

• 7-2. 하이브리드 구조의 필연성: 로컬+서버


8. 개인 PC AGI의 현실적 구현: “서버 RAG를 개인에게 내려보내기”

• 8-1. PC형 AGI의 핵심 유스케이스

• 8-2. 로컬 RAG의 역할

• 8-3. 라우팅(로컬 vs 클라우드)

• 8-4. 진짜 변화는 ‘설정 노동’의 소멸 - 자동 자막과 같은 계층


9. 왜 소수 대형 LLM이 계속 확장하는가: ‘기억’과 ‘품질’의 비용 구조

• 9-1. 컨텍스트/세션의 트레이드오프

• 9-2. 데이터가 쌓일수록 발생하는 계산 압력

• 9-3. 결론: 데이터센터/전력/공급망이 ‘AI 품질’의 직접 변수

• 9-4. ‘AI 버블론’이 반복 생산되는 트리거

• 9-4-1. 생산성 통계는 ‘즉시 반영’이 아니라 ‘지연 반영’되는 경향이 있다


10. ‘국산 vs 외산’ 수능/고난도 문제 실험이 던지는 시사점

• 10-1. 현상

• 10-1-1. 이 사례를 드는 이유

• 10-2. 왜 이런 격차가 나는가

• 10-3. B2C 연결


11. 결론: “AI는 닷컴과 다르다”를 넘어 “AI 버블론을 재정의”하기

• 11-1. 섹터 전체를 ‘버블’로 보는 프레임의 오류

• 11-2. 대신 이렇게 정리

• 11-2-1. 결론의 B2C 귀결

• 11-3. 독자에게 남기는 질문


keyword
이전 15화AI 버블을 해체한다. 2부 - 현재편