AI 버블을 해체한다. 4부 - 최종편

닷컴 프레임을 넘어 B2C·인프라·개인 AGI로 재정의하기

by 마나월드ManaWorld
AI-Main-4.png AI 버블론을 해체한다. 4부 - 닷컴 프레임을 넘어 B2C·인프라·개인 AGI로 재정의하기

9. 왜 소수 대형 LLM이 계속 확장하는가: '기억’과 '품질’의 비용 구조

9-1. 컨텍스트/세션의 트레이드오프

여기서 중요한 기술적 문제가 있다.

LLM 서비스마다 "기억"을 다루는 방식이 다르다.

이게 사용자 경험을 완전히 바꾼다.


누적형(맥락 축적):

대화가 이어질수록 앞의 내용을 계속 참조한다.

"아까 그 문서 말이야"라고 하면 뭘 말하는지 안다.

연속 작업에 강하다.


프로젝트를 며칠에 걸쳐 진행할 때,

매번 처음부터 설명할 필요가 없다.

하지만 컨텍스트가 길어질수록 느려지고 비용이 올라간다.


리셋/압축형:

항상 일정한 토큰 길이를 유지한다.

초기 내용은 과감히 버리거나 요약한다.

속도와 비용이 안정적이다.

하지만 "며칠 전에 했던 작업 이어서 해줘"가 안 된다.

매번 새로 시작하는 느낌이다.


GPT와 Gemini의 차이는 상당 부분 여기서 나온다.


그때그때 궁금한 걸 물어보는 용도라면 리셋형이 괜찮을 수 있다.

“오늘 날씨 어때?” “이 단어 뜻이 뭐야?”

같은 질문은 앞뒤 맥락이 필요 없다.

빠르게 답하면 된다.


하지만

지식이 쌓여야 하는 작업, 프로젝트 단위의 연속 작업이라면 누적형이 훨씬 유리하다.


“저번 주에 정리한 거 기반으로 이번 주 보고서 만들어줘.”

“내가 선호하는 스타일로.” 이런 건 맥락이 쌓여야 한다.


개인 AGI가 진짜

"내 비서"가 되려면, 결국 누적형이 필요하다.


내가 어떤 작업을 했는지,

어떤 스타일을 좋아하는지,

어떤 맥락에서 일하는지를 기억해야 하니까.


매번 "나는 이런 사람이고, 이런 프로젝트를 하고 있고…"를

설명하는 건 비서가 아니라 신입이다.


9-2. 데이터가 쌓일수록 발생하는 계산 압력

문제는 여기서 생긴다.

개인 AGI가 내 데이터를 축적하면 할수록,

처리해야 할 "조건값"이 늘어난다.


내 파일, 내 과거 대화, 내 선호, 내 작업 기록.

이걸 참조해서 답을 만들어야 하니까.


일반인들은 이 부분이 직관적으로 이해가 안 될 수 있다.

쉽게 설명하면 이렇다. 시험을 본다고 생각해보자.


참고서가 1권이면,

필요한 내용을 찾는 데 시간이 적게 걸린다.


참고서가 10권이면,

어느 책 어느 페이지에 있는지 찾는 데 시간이 더 걸린다.


참고서가 100권이면? 찾는 것 자체가 일이 된다.


LLM도 마찬가지다.

GPU에 "입력되는 조건값"이 많아지면 연산 시간과 비용이 올라간다.

참고해야 할 정보가 많으면 많을수록 계산량이 늘어난다.


RAG로 "필요한 것만 뽑아서 넣는다"고 해도,

개인화가 깊어질수록 총 연산량은 늘어나는 압력을 받는다.


동시에 수억 명이 각자의 개인화된 요청을 보내면,

데이터센터가 감당해야 할 추론(우리질문에 대한 답변작성) 부하는 폭발적으로 커진다.

그리고 이 압력은 훈련 쪽에서도 같은 방향으로 나타난다.


머스크의 xAI가 하고 있는 걸 보자.

Grok 2 학습에 H100 GPU 약 2만개를 사용했다.

앞으로 개발 중인 Grok 3 이후는 10만개 이상이 필요하다고 직접 언급했다.


그리고 실제로 xAI의 Colossus 슈퍼컴퓨터 클러스터

2024년 기준 H100 10만개에서,

2025년에는 20만개로 확장 중이다.


이건 한 회사가 GPU 20만개를 돌린다는 뜻이다.

여기에 들어가는 전력, 냉각, 공간, 인력을 생각해보라.


머스크는 심지어 이렇게까지 말했다.

“향후 테라와트급 AI 컴퓨팅은

지구에서 전기와 냉각으로 감당하기 힘들어질 수 있고,

오히려 우주(궤도)에서 돌리는 게 더 싸질 수도 있다.”


과장처럼 들릴 수 있다.

하지만 이건 스케일의 방향성을 보여준다.

AI는 "앱"이 아니라 "연산 공장"이다. 그리고 그 공장은 계속 커지고 있다.


9-3. 결론: 데이터센터/전력/공급망이 'AI 품질’의 직접 변수

그래서 이런 결론이 나온다.


품질 경쟁은 결국 연산 인프라로 귀결된다.


B2C에서 사람들은 "결과물 품질"로 서비스를 고른다.

더 정확하고, 더 똑똑하고, 더 내 맥락을 잘 아는 서비스.

그 품질을 만들려면 더 많은 연산, 더 큰 모델, 더 깊은 개인화가 필요하다.


그리고 그건 더 많은 GPU, 더 많은 전력,

더 큰 데이터센터를 요구한다.


그래서 AI는 소프트웨어 붐이 아니다.

연산 인프라 혁명이다.


소수의 대형 LLM 업체가 계속 확장하는 이유도 여기 있다.

품질 경쟁에서 이기려면 체급이 필요하다.

체급은 결국 인프라에서 나온다.


그래서 돈과 자원이 소수에게 집중된다.

이게 우리가 앞서 본 "유동성의 질적 편중"의 기술적 근거다.


9-4. 'AI 버블론’이 반복 생산되는 트리거

여기서 우리가 처음에 던졌던 질문으로 돌아가보자.


왜 사람들은 계속 "AI 버블"을 말하는가?

버블론이 힘을 받는 구체적인 트리거들이 있다.


(A) 밸류에이션이 미래를 과도하게 당겨왔다는 불안:

“너무 빨리, 너무 비싸게 올랐다.”

엔비디아 주가가 1년 만에 3배가 됐을 때,

OpenAI 기업가치가 1,500억달러를 넘었을 때,(2024년 9월 당시)

사람들은 "이게 맞아?"라고 물었다.


(B) CAPEX 과열 공포:

데이터센터, 전력, GPU 투자가 먼저 달리고 있는데,

수요가 따라오지 못하면 어떡하나.

“지어놓고 빈 건물 되는 거 아니야?”

2000년대 초 광케이블 과잉투자의 기억이 떠오른다.


(C) 비용 구조 공포:

“추론은 원래 비싼데,

가격 경쟁이 오면 수익성이 무너지는 거 아니냐.”

오픈소스 모델이 퍼지고, 가격 경쟁이 심해지면,

지금 프리미엄을 받는 서비스들이 마진을 지킬 수 있을까.


(D) 주변부 난립 공포:

2차 서비스와 테마주가 쏟아지면서

“닷컴처럼 쓰레기까지 가격이 붙는 것 아니냐.”

"우리도 AI 합니다"라는 보도자료 하나로 주가가 뛰는 회사들.


(E) "GDP/생산성 지표에 아직 안 보이는데?"라는 의심:

체감은 혁명인데, 공식 통계에는 안 잡힌다.

“그러면 진짜 효과가 있긴 한 거야?”


이 글의 답은 "불안이 틀렸다"가 아니다.

이 트리거들이 실제로 어느 레이어에서 현실화될지를 분해해 보자는 것이다.


상위 코어(칩, 빅테크, 주요 LLM)와

주변부(테마주, 2차 서비스 일부)는

리스크 프로파일이 다르다.


전부를 "버블"로 싸잡으면 안 된다.


9-4-1. 생산성 통계는 '지연 반영’되는 경향이 있다

(E)에 대해 한 가지 덧붙일 게 있다. 이건 역사적으로 반복된 패턴이다.


전기, 컴퓨터, 인터넷 같은 범용기술(General Purpose Technology)은 공통된 패턴이 있다.


"세상이 바뀐다"는 체감이 먼저 오고,

공식 통계(생산성, GDP)는 보통 5~10년 뒤에야 반영된다.


왜?


조직과 프로세스가 새 기술에 맞게 재편되는 데 시간이 걸리기 때문이다.


1990년대에 기업들이 컴퓨터를 샀다고 바로 생산성이 오른 게 아니다.

컴퓨터를 사무실에 들여놓았지만, 업무 방식은 그대로였다.


종이 문서를 워드로 옮겨 적고, 다시 프린트해서 결재받았다.


진짜 생산성이 오르려면 업무 방식을 바꾸고,

직원들을 교육하고, 시스템을 통합해야 했다.

그 과정에 몇 년이 걸렸다. 그제야 통계에 잡혔다.


“생산성 역설(Productivity Paradox)”이라고 불리는 현상이다.


경제학자 로버트 솔로우가 1987년에 "컴퓨터 시대는 어디서나 보이는데,

생산성 통계에서만 안 보인다"고 말한 게 유명하다.

하지만 1990년대 후반부터 생산성이 급등했다.


기술 도입과 통계 반영 사이에 시차가 있었던 것이다.


그래서 "아직 지표에 안 잡힌다"는 말은 버블의 증거일 수도 있지만,

범용기술의 전형적인 ‘도입-재편 지연’ 패턴일 수도 있다.


단독 근거로는 약하다. 둘 다 가능성이 있다는 걸 인정해야 한다.


10. ‘국산 vs 외산’ 수능/고난도 문제 실험이 던지는 시사점

10-1. 현상

최근 한국에서 흥미로운 연구가 있었다.

국산 AI와 외국 AI에게 수능 수학과 논술 문제를 풀게 한 것이다.


상황은 이랬다.

국가대표 AI 경쟁에 참여한 국내 5개 팀의 모델과

해외 상용 모델(GPT, Claude 등)에게 같은 문제를 줬다.


특히 올해는 "불수능"이라고 불릴 만큼 수학이 어려웠다.

고난도 문제들이 수험생들을 괴롭혔다.


결과는 명확했다.

국산 모델들은 기대에 미치지 못했고,

외국 상용 모델은 상당히 높은 수준을 보였다.


누군가는 이렇게 말했다.

“이걸 푼다면 대학이 필요한가? 이건 졸업해야 되는 능력 아닌가?”


수능은 대학 입학 자격을 판단하는 시험이다.

그 시험의 가장 어려운 문제를, AI가 그 누구보다 빨리 푼다.

그러면 그 시험이 측정하려는 "능력"은 뭐고,

그 능력을 갖춘다는 게 무슨 의미인가.


물론 수능 수학 한두 문제 푼다고 인간 수준 지능이라는 건 아니다.

하지만 특정 영역에서 "전문가 수준"에 도달했다는 신호는 분명하다.

그리고 그 영역은 계속 넓어지고 있다.


10-1-1. 이 사례를 드는 이유

이 사례의 핵심은 "수능을 풀었다/못 풀었다"가 아니다.


고난도 추론에서 '품질 격차’가 어떻게 발생하고,

그 격차가 왜 '연산 인프라’로 연결되는가를 보여주는 데 있다.


국뽕이나 국까 프레임으로 볼 게 아니다.

“한국 AI 별로네”

"외국 AI 대단하네"로 끝내면 아무것도 안 남는다.


구조를 봐야 한다. 왜 이런 격차가 생겼는가?


10-2. 왜 이런 격차가 나는가: 데이터 vs 컴퓨트 분리

“한국어 데이터가 부족해서 그런 거 아니야?”


일부는 맞다.

한국어 학습 데이터가 영어보다 적은 건 사실이다.

하지만 수학 문제는 언어보다 추론이 핵심이다.


수식을 이해하고,

단계별로 조작하고,

논리를 이어가는 능력.


이건 한국어를 잘 아느냐의 문제가 아니다.


격차의 진짜 원인은 계산 자원의 체급 차이다.

그리고 이건 세 가지로 나눠 봐야 한다.


훈련 컴퓨트(Training Compute):

모델을 학습시키는 데 들어간 GPU 시간.

더 오래, 더 많이 학습할수록 성능이 올라간다.

1,000시간 학습한 모델과 100,000시간 학습한 모델은 다르다. 이건 돈이다.


추론 컴퓨트(Inference Compute):

답을 만들 때 쓰는 연산.

복잡한 문제에서는 “더 생각하게” 만드는 전략이 효과적이다.

여러 가지 접근을 시도해보고, 스스로 검증하고, 틀리면 다시 시도하고.

이런 전략은 추론 비용을 올린다. 하지만 결과가 좋아진다.


실험 컴퓨트(Experiment Compute):

수백 번 실패하고 다시 시도하는 비용.

최고 성능을 찾으려면 엄청난 실험을 돌려야 한다.

“이 파라미터는 어때?”

“저 구조는 어때?” 시도하고, 실패하고, 다시 시도하고.

이것도 GPU 시간이다. 이것도 돈이다.


이 세 가지가 합쳐져서 "체급"이 된다.

그리고 그 체급은 결국 데이터센터와 GPU와 전력과 돈으로 귀결된다.


물론 자원만 있다고 되는 건 아니다.

그 자원을 "품질"로 바꾸는 운영 능력(알고리즘, 튜닝, 평가 체계, 인재)도 중요하다.

같은 GPU 1만개를 줘도 어떤 팀은 좋은 모델을 만들고, 어떤 팀은 못 만든다.


하지만 자원 없이 운영 능력만으로 상위권에 가기는 거의 불가능하다.

GPU 100개로 GPU 10만개를 이기기는 어렵다.

자원은 필요조건이다. 충분조건은 아니지만, 없으면 시작도 못 한다

.

10-3. B2C 연결

이게 B2C와 어떻게 연결되는가?


B2C는 결과물 품질이 구매 이유다.

사람들은 "더 똑똑한 서비스"에 돈을 낸다.


수능 수학을 푸는 건 극단적인 예시지만,

일상적인 작업에서도 같은 논리가 작동한다.


“이 보고서 논리가 더 탄탄하네.”

“이 PPT 구조가 더 깔끔하네.”

“이 코드가 버그가 더 적네.”


품질 차이가 느껴지면, 사용자는 더 좋은 쪽으로 간다.


그리고 그 품질이 체급 차(= 인프라 차)로 벌어질수록,

상위 모델로 사용자가 쏠린다.


동시에,

개인 AGI가 로컬 데이터와 결합하면 플랫폼 락인이 강해진다.


내 파일, 내 스타일, 내 작업 기록이 쌓인 서비스를 쉽게 떠나기 어렵다.

다른 서비스로 가면 처음부터 다시 가르쳐야 한다.


결국 B2C 시장은

“품질 상위 + 개인화 락인”을 가진 소수 플레이어로 집중될 가능성이 높다.

이게 우리가 앞서 본 "유동성의 질적 편중"과 맞물린다.


기술적 현실이 시장 구조를 만들고, 시장 구조가 자본 흐름을 결정한다.


11. 결론: "AI는 닷컴과 다르다"를 넘어 "AI 버블론을 재정의"하기

11-1. 섹터 전체를 '버블’로 보는 프레임의 오류

이제 처음 질문으로 돌아가보자.


"AI는 닷컴버블이다"라는 말은 맞는가?


이 글에서 우리가 본 것을 정리하면:

수익 구조가 다르다.

닷컴은 매출 없는 적자였다.

서버비와 마케팅비만 나가고,

수익은 “언젠가 광고로” 수준이었다.


AI는 이미 수십조 단위 매출이 실존한다.

OpenAI 연환산 매출 100억달러,

엔비디아 데이터센터 분기 매출 500억달러. (최근 분기 기준)

이게 "기대"가 아니라 "실적"이다.


유동성 배분이 다르다.

닷컴은 ".com"만 붙으면 쓰레기까지 동반 상승했다.

실적도 기술력도 없는 회사들이 수조 원 시총을 받았다.


AI는 처음부터 상위 코어에 집중됐다.

엔비디아, 빅테크, 소수 LLM 회사로 돈이 몰렸다.

주변부 테마주도 있지만, 시장 시총의 메인은 이미 검증된 플레이어들이다.


검증 방식이 다르다.

닷컴은 버블이 터져야 누가 진짜인지 드러났다.

투자자들은 스토리를 샀고,

몇 년 뒤에야 "아, 이건 아니었구나"를 깨달았다.


AI는 써보면 바로 안다.

A 서비스가 별로면 B로 갈아탄다.

구독 해지 버튼 하나면 끝이다.

시장이 매일 실력으로 정리한다.


산업 연결이 다르다.

닷컴은 광고/유통 채널을 재편했다.

기존 광고 파이를 온라인으로 옮긴 것이다.


AI는 전력, 반도체, 건설, 광산까지 끌어올리는 실물 CAPEX 사이클이다.

1차 산업부터 제조, 건설, 에너지까지. 새로운 파이를 만드는 수준이다.


그래서 AI 전체를 "닷컴식 거품"으로 보는 건 구조적으로 맞지 않는다.


11-2. 대신 이렇게 정리한다

AI를 어떻게 봐야 하는가?


AI는 구조적 초성장 슈퍼사이클이다.

그 안에 국지적 과열(일부 자산, 일부 CAPEX, 일부 주변부)은 있을 수 있다.


중요한 건 "터진다/안 터진다"가 아니다.

어느 레이어가 과열이고, 어느 레이어가 코어 인프라인지를 구분하는 것이다.


칩/클라우드/소수 LLM:

이미 실적과 독점력을 갖춘 코어.

버블보다는 고평가된 성장주에 가깝다.

비싸긴 비싼데, 실체가 있다.


전력/데이터센터:

실물 수요가 끌어올리는 인프라.

CAPEX 속도에 대한 불확실성은 있지만,

구조적 수요는 실존한다.

AI가 돌아가려면 전기가 필요하다.

이건 스토리가 아니라 물리학이다.


2차 서비스/테마주:

자연정화가 빠른 시장. 실력 없으면 탈락한다.

사용자가 매일 비교하고, 별로면 떠난다.

다만 일부는 여전히 과대평가 상태다. 여기서 조정이 올 수 있다.


개인 AGI:

B2C의 다음 단계.

구독이 "앱 결제"에서

"업무 장비"로 이동하는 중이다.

아직 초기지만, 방향은 명확하다.


11-2-1. 결론의 B2C 귀결

이 글의 최종 착지점을 한 문장으로 말하면 이렇다.


AI 구독은 "앱 결제"가 아니라,
현대 지식노동(PC를 다루는 능력)을 상향 평준화하는
'개인 생산성 OS/장비비’로 이동한다.


마치 지금 노트북이나 스마트폰 없이 일하기 어려운 것처럼,

곧 AI 에이전트 없이 일하기 어려워진다.


그때 구독료는 "사치"가 아니라"기본 장비"가 된다.

넷플릭스처럼 “재미를 위해” 내는 돈이 아니라,

노트북처럼 “일하려면 필요해서” 내는 돈이 된다.


그리고 이건 더 큰 의미가 있다.


AI는 "성과를 보장"하는 혁명이 아니다.

"구현 능력을 개인에게 배포"하는 민주화다.


캡컷이 영상편집의 진입장벽을 없앴듯이,

AI는 지식노동의 진입장벽을 없앤다.


예전에는 전문집단만 할 수 있다고 여겨졌던 것들이 있다.


트레이딩 시스템 구축,

데이터 분석 파이프라인,

자동화 워크플로우,

복잡한 문서 작업.


이런 건 개발자나 전문가의 영역이었다.

일반인은 엄두를 못 냈다.


이제 그게 개인도 구현 가능한 영역으로 내려온다.


결과는 여전히 역량 싸움이다.

캡컷이 있다고 다 유튜버가 되는 건 아니다.

트레이딩 시스템을 만들 수 있다고 다 돈을 버는 건 아니다.

그건 원래도 집단 내부에서 역량 싸움이었다.


달라지는 건 "참가권"이 대중에게 열렸다는 것이다.


예전에는 경기장에 들어가는 것 자체가 자격증이 필요했다.

이제는 누구나 들어갈 수 있다.

그 안에서 이기느냐는 다른 문제지만, 참가 자체가 가능해졌다. 이게 민주화의 의미다.


11-3. 독자에게 남기는 질문

이 글은 "AI가 버블이냐 아니냐"를 단정하지 않았다.

대신 버블론이 기대는 전제들을 분해하고,

닷컴과의 구조적 차이를 레이어별로 보여줬다.


마지막으로 몇 가지 질문을 남긴다.

이건 후속 논의의 출발점이 될 수 있다.


개인 AGI가 본격화될 때, B2C 구독 시장은 ‘얼마까지’ 커질 수 있는가?

지금 AI를 써본 사람이 17~18억 명인데, 유료 전환율이 3%다.

이게 10%가 되면? 20%가 되면? 시장 규모가 어떻게 바뀌는가?


OS/디바이스(애플, 구글) vs

LLM/클라우드(MS, OpenAI) vs

슈퍼앱 중 누가 개인 AGI 레이어를 먹을 것인가?

폰을 만드는 회사가 이기느냐, 모델을 만드는 회사가 이기느냐, 플랫폼을 가진 회사가 이기느냐.


전력/데이터센터 CAPEX는 어디서 과잉이 생기고, 어디서 병목이 생길 것인가?

투자는 빨리 들어가는데, 인허가와 건설은 느리다. 그 갭에서 무슨 일이 생기는가?


각 레이어(칩, 클라우드, LLM, 2차 앱, 인프라)의 버블 위험도를 어떤 지표로 정량화할 것인가?

매출 대비 시총? 사용자당 비용? CAPEX 회수 기간?

어떤 숫자를 봐야 "여기는 과열이고 여기는 괜찮다"를 말할 수 있는가?


“AI를 닷컴버블이라고 부르는 건,

일본 부동산 버블과 한국 부동산 상승을

'둘 다 집값이 올랐으니 같은 버블’이라고 말하는 것과 다를 바 없다.”

표면은 비슷해 보인다. 가격이 많이 올랐다. 기대가 크다. 열풍이 불고 있다.

하지만 원인이 다르고, 구조가 다르고, 경로가 다르다.


일본은 인구 피크와 함께 20년 디플레로 갔다.

한국은 다른 조건에서 다른 경로를 밟고 있다.

둘을 "부동산 버블"이라는 한 단어로 묶으면 아무것도 설명이 안 된다.


AI도 마찬가지다.


닷컴은 "매출 없는 기대"였다.

AI는 "매출 있는 초성장"이다.


닷컴은 "광고 파이 재분배"였다.

AI는 "산업 인프라 강제 업그레이드"다.


닷컴은 “버블이 터져야 누가 진짜인지 드러났다.”

AI는 “매일 사용자가 실력으로 정리한다.”


그래서 우리에게 필요한 건 "버블이냐 아니냐"라는 이분법이 아니다.


구조를 이해하고, 레이어를 구분하고, 각각의 리스크와 기회를 다르게 보는 눈이다.

이 글이 그 눈을 갖는 데 도움이 됐기를 바란다.



AI 버블론을 해체한다. 시리즈 - 전체 목차


0. 프롤로그


1. 버블론이 성립하려면 무엇을 ‘버블’이라 정의해야 하는가

• 1-1. 버블의 정의를 분해한다

• 1-2. “AI = 닷컴버블” 프레임이 놓치는 것


2. 닷컴과 AI의 구조적 차이 1: 수익의 실존과 매출 구조

• 2-1.닷컴의 문제: 돈을 벌기 전 비용이 앞섰다

• 2-2. AI의 현실: 이미 돈이 돈을 만든다


3. 구조적 차이 2: 유동성의 ‘질적 편중’이 이미 발생했다

• 3-1.닷컴: “.com이면 다 간다” → 쓰레기까지 동반 상승

• 3-2. AI: 자본이 처음부터 상위 레이어에 집중된다


4. B2C 핵심 전환: “편리함 시장”이 아니라 “경쟁력(결과물) 시장”

• 4-1. 인터넷 B2C와 AI B2C의 동기 차이

• 4-2. 시간 절약보다 결과물이 중요해지는 이유

• 4-3. 실시간 검증 시장의 탄생

• 4-3-1. 사례: ‘자막 노가다’를 버튼으로 바꾼 순간


5. 올인원이 2차 시장을 먹을 수 있나: '리소스 트레이드오프’로 보는 공존 구조

• 5-1. 올인원의 구조적 한계: 범용성-퀄리티-속도의 삼각관계

• 5-2. 사용자의 실제 최적 행동 패턴

• 5-3. 2차 시장이 살아남는 조건

• 5-3-2. 컴플라이언스는 부가 옵션이 아니다


6. “AI는 닷컴과 다른 '산업 업그레이드 엔진’이다”

• 6-1. 닷컴 장비 수혜와 AI 인프라 수혜의 ‘차원’ 차이

• 6-1-1. 전력시장은 '스토리’가 아니라 '안정성’으로 검증되는 시장이다

• 6-1-2. 인프라가 '깔린다’는 것과 '빨리 깔린다’는 것은 다르다

• 6-2. 전후방 연관효과: 낙수가 아니라 연쇄다

• 6-3. 기저전력과 배터리의 현실

• 6-3-1. 한국의 승부처: 전력·그리드·백업이 만드는 인프라 연쇄

• 6-4. 2부의 결론: 버블 논쟁의 프레임을 바꾸는 문장


7. 근미래형(좁은) AGI: “대화형 챗봇”에서 “개인 생산성 OS”로

• 7-1. SF급 AGI가 아니라 ‘현실적 AGI’의 정의

• 7-2. 하이브리드 구조의 필연성: 로컬+서버


8. 개인 PC AGI의 현실적 구현: “서버 RAG를 개인에게 내려보내기”

• 8-1. PC형 AGI의 핵심 유스케이스

• 8-2. 로컬 RAG의 역할

• 8-3. 라우팅(로컬 vs 클라우드)

• 8-4. 진짜 변화는 ‘설정 노동’의 소멸 - 자동 자막과 같은 계층


9. 왜 소수 대형 LLM이 계속 확장하는가: ‘기억’과 ‘품질’의 비용 구조

• 9-1. 컨텍스트/세션의 트레이드오프

• 9-2. 데이터가 쌓일수록 발생하는 계산 압력

• 9-3. 결론: 데이터센터/전력/공급망이 ‘AI 품질’의 직접 변수

• 9-4. ‘AI 버블론’이 반복 생산되는 트리거

• 9-4-1. 생산성 통계는 ‘즉시 반영’이 아니라 ‘지연 반영’되는 경향이 있다


10. ‘국산 vs 외산’ 수능/고난도 문제 실험이 던지는 시사점

• 10-1. 현상

• 10-1-1. 이 사례를 드는 이유

• 10-2. 왜 이런 격차가 나는가

• 10-3. B2C 연결


11. 결론: “AI는 닷컴과 다르다”를 넘어 “AI 버블론을 재정의”하기

• 11-1. 섹터 전체를 ‘버블’로 보는 프레임의 오류

• 11-2. 대신 이렇게 정리

• 11-2-1. 결론의 ‘B2C 귀결'

• 11-3. 독자에게 남기는 질문

keyword
이전 16화AI 버블을 해체한다. 3부 - 근미래편