AI 버블을 해체한다. 부록 - Q&A편

닷컴 프레임을 넘어 B2C·인프라·개인 AGI로 재정의하기

by 마나월드ManaWorld
ai-5-qna.png AI 버블론을 해체한다. 부록 Q&A - 닷컴 프레임을 넘어 B2C·인프라·개인 AGI로 재정의하기

Q&A - 본문에서 못 다 담은 핵심 쟁점


Q1. “그래도 AI 버블 아닌가요? 밸류에이션이 너무 앞서간 거 아닌가요?”

버블이라는 단어를 쓰려면 먼저 뭘 버블이라고 부르는지 정의해야 한다.

실체 없는 기대만으로 가격이 형성됐나? 아니다.


AI는 이미 수십~수백조 원 단위 매출이 실존한다.

엔비디아 데이터센터 사업부만 분기 512억 달러다.

OpenAI 연환산 매출이 100억 달러를 넘었다.


"언젠가 돈을 벌겠지"가 아니라 이미 돈이 돌고 있다.


그럼 가격이 미래를 과도하게 당겨왔나? 이건 논쟁의 여지가 있다.

일부 종목은 10년 뒤의 완성된 그림을 이미 반영했을 수 있다.

하지만 이건 "사기 버블"이 아니라 "시간 착각 버블"이다.

진짜인데 비싸게 산 것이다. 성격이 다르다.


핵심은 이거다.

"AI 전체가 버블이냐"를 묻는 건 틀린 질문이다.

레이어별로 봐야 한다.


칩, 클라우드, 전력, 데이터센터, 상위 모델. 이건 코어다.

실제 매출과 CAPEX가 돌아가고 있다.


테마성 2차 서비스, 말뿐인 “우리도 AI 합니다” 회사들. 이건 주변부다.

여기는 과열됐을 수 있고, 정리될 수 있다.


"버블이냐 아니냐"가 아니라

"어디가 과열이고 어디가 구조적 수혜냐"로 관점을 바꿔야 한다.


Q2. 닷컴도 장비 회사들은 엄청 성장했는데, AI랑 뭐가 그렇게 다르죠?

맞다. 닷컴 때도 시스코 같은 네트워크 장비 회사들이 수혜를 봤다.

서버, 라우터, 광케이블. 인프라 투자가 있었다.


하지만 그 범위가 어디까지였나?

네트워크 장비와 데이터 전송 인프라. 거기서 끝이었다.


전력망을 새로 깔아야 했나? 아니다.

발전소를 더 지어야 했나? 아니다.

구리 광산에서 구리를 더 파야 했나? 아니다.

인터넷은 기존 인프라 위에서 돌아갔다.


AI는 다르다.

LLM을 돌리려면 GPU가 필요하고,

GPU를 돌리려면 엄청난 전기가 필요하다.

데이터센터 하나가 소도시만큼 전기를 먹는다. (1Gw급)


그 전기를 공급하려면 발전소, 송전망, 변전소가 필요하다.


데이터센터를 지으려면

건물, 냉각 시스템, 구리 배선, 특수 소재가 필요하다.


이걸 확장하려면 광산에서 구리와 리튬과 니켈을 더 파야 한다.


비유하자면 이렇다.

닷컴은 "인터넷을 연결하는 장비"의 수요였다.

AI는 "전기를 먹는 공장(연산)"을 전 세계에 새로 짓는 수요다.

예전 인터넷은 도로(통신망)를 깔았다.


지금 AI는 발전소와 공장(연산 능력)을 깐다. 체급이 다르다.


Q3. AI가 산업을 끌어올린다는데, 그게 '낙수효과’인가요?

"낙수효과"라는 단어는 정치적 프레임이 강해서 쓰기 조심스럽다.

경제 메커니즘으로 말하면

“전후방 연관효과” 또는 "연쇄 파급효과"가 더 정확하다.


AI 수요가 폭발하면 연쇄가 일어난다.


하류(AI 서비스, LLM, 에이전트, 2차 앱)에서

중류(데이터센터 건설/운영, 전력 인프라, 냉각, 네트워크)로,

중류에서 상류(에너지, 원자재, 부품, 설비)로 수요가 전이된다.


예를 들어보자.

AI 수요 증가 → 데이터센터 증가 → 전력 수요 증가 → 발전설비 투자 필요 → 연료 조달과 공급망 필요.


그래서 가스, 발전, 전력 인프라 관련 기업들이 연계 수혜 구조에 들어간다.

AI가 직접 돈을 벌지 않더라도,

AI가 전력을 먹는 실체 수요를 만들기 때문에 수혜가 전이된다.


다만 중요한 균형점이 있다.

연쇄 수요는 퍼지지만, 이익률이 균등하게 퍼지는 건 아니다.

병목이나 독점 구조가 있는 곳(GPU, 핵심 소재)은 초과이익을 가져가고,

설비 경쟁이 심한 곳은 저마진일 수 있다.


"AI 관련주"라고 다 같이 뜨는 게 아니다. 레이어별로 이익 구조가 다르다.


Q4. 전력 얘기까지 가면, 친환경 전기는 왜 ‘기저전력’ 없으면 무용지물이라는 말이 나오죠?

AI 데이터센터는 24시간 365일 돌아간다.

잠깐 껐다 켜는 게 아니다. 상시 전력을 먹는 부하다.


그런데 태양광이나 풍력 같은 재생에너지는 간헐적이다.

밤에는 태양광이 안 나오고, 바람이 안 불면 풍력이 안 돈다.

변동성이 크다.


AI 같은 상시 부하를 재생에너지만으로 안정적으로 받치기는 현실적으로 어렵다.

그래서 기저전력이 필요하다.

원전, 가스발전, 대형 수력 같은 안정적으로 24시간 돌아가는 전원이다.

이게 상시 부하를 받치고, 재생에너지는 보조 역할을 하는 구조가 현실적인 해법이다.


"AI 인프라"를 논하면 결국 전력 믹스와 계통 투자 문제로 확장될 수밖에 없다.

이건 기업 단위가 아니라 국가 단위의 에너지 정책 문제다.

발전소를 어디에 얼마나 짓고,

송전망을 어떻게 깔고,

전력 수급을 어떻게 관리하느냐.


AI가 커질수록 이 문제가 더 중요해진다.


Q5. 대규모 배터리(ESS)는 왜 해법이면서도 위험(안정성) 문제로 논쟁이 되죠?

“재생에너지가 간헐적이면 배터리로 저장하면 되지 않나?”

이론적으로는 맞다. 하지만 현실은 다르다.


현 세대 대규모 ESS는 대부분 리튬이온 배터리다.

문제는 열폭주(thermal runaway) 위험이다.


한 번 불이 나면 온도가 급상승하고,

분해가스와 가연성 전해질 때문에 진압이 어렵다.

재점화도 잘 된다. 소방관들이 가장 싫어하는 화재 유형 중 하나다.


한국에서도 ESS 화재로 행정망이 멈춘 사례가 있었다.

정부 데이터센터를 떠받치는 인프라에서 배터리 화재가 나서 전산망이 마비됐다.


이런 일이 터지면 규제가 강화되고,

"대규모 ESS는 아직 미션 크리티컬 인프라를 1차로 맡기기엔 위험하다"는 인식이 퍼진다.


그래서 현실적인 타협은 하이브리드다.

기저전력(원전, 가스, 수력)이 상시 부하를 받치고,

배터리는 피크 시간대나 단기 안정화에 쓰는 구조.


데이터센터들도 UPS(배터리)와 디젤/가스터빈 백업을 병행하는 경우가 많다.

효율보다 안정성이 우선이기 때문이다.


고체 전해질 배터리가 상용화되면 이야기가 달라질 수 있다.

열폭주 위험이 크게 줄어드니까. 하지만 그건 아직 미래다.


지금은 "배터리로 다 해결"이라는 그림은 과장이다.


Q6. "AI가 인프라를 강제로 끌어올린다"면, 이건 AI가 GDP에 직접 기여하는 거 아닌가요?

맞다. 이게 닷컴과 결정적으로 다른 지점이다.

닷컴의 핵심 수익모델은 광고였다.

그런데 광고 시장은 기존 TV, 신문, 잡지의 파이를 나눠먹는 시장이다.


새로운 돈이 생긴 게 아니라,

있던 돈이 채널을 옮긴 것이다.


경제학 용어로 하면 "대체 효과"가 컸다.


AI는 다르다. 세 가지 경로로 GDP에 직접 기여한다.


첫째, 구독 매출이다.

B2C에서 사람들이 “내 경쟁력을 올리기 위해” 직접 지갑을 여는 시장이다.

예전에는 이런 지출 항목 자체가 없었다. 새로운 소비다.


둘째, 설비 투자다.

데이터센터 건설, 전력 인프라, 냉각 시스템, 반도체 공장.

이건 건설업과 제조업의 GDP다. 실물 CAPEX가 돌아간다.


셋째, 전력과 운영이다.

데이터센터가 전기를 먹고, 운영 인력이 필요하고, 유지보수가 필요하다.

서비스업과 산업 전력 소비로 잡힌다.


이건 "기존 파이 재분배"가 아니라 "새 파이 창출"이다.


물론 AI가 기존 인력을 대체하는 효과도 있다.

고용과 임금에 어떤 충격을 주는지는 별개의 문제로 남아 있다.


하지만 "AI가 GDP에 직접 기여하느냐"라는 질문에 대한 답은 명확하다. 한다.


Q7. 인터넷은 결국 광고가 핵심 수익모델이었는데, AI는 뭐가 핵심이죠?

인터넷의 핵심 수익모델은 광고였다.

사람들이 직접 돈을 내는 게 아니라,

사람들의 관심을 모아서 광고주에게 파는 구조였다.


그래서 대부분의 서비스는 무료였고,

"사용자 수"가 곧 가치였다. 돈은 광고주가 냈다.


AI의 수익 구조는 더 직접적이다. 크게 세 층위가 있다.


B2C에서는 구독료다.

사람들이 “내 경쟁력을 올리기 위해” 직접 지갑을 연다.

ChatGPT Plus에 월 20달러, 클로드에 월 20달러.

광고를 보는 대가로 무료로 쓰는 게 아니라, 성과를 위해 직접 돈을 낸다.

이건 근본적으로 다른 지불 동기다.


B2B에서는 비용 절감과 생산성 향상이다.

콜센터 인력을 AI 챗봇으로 대체하고,

문서 검토를 자동화하고,

코드 리뷰 시간을 줄인다.


기업들이 AI에 돈을 쓰는 이유가 "유행이라서"가 아니다.

실제로 비용이 줄고 생산성이 올라가니까 쓴다.


인프라에서는 GPU, 클라우드, 전력, 데이터센터 판매다.

엔비디아가 칩을 팔고,

클라우드 업체들이 서버를 임대하고,

전력회사가 전기를 판다.

실물이 움직인다.


광고도 있을 수 있다.

AI 서비스에 광고를 붙이는 모델도 나올 수 있다.

하지만 핵심 수익은 구독, 사용량 과금, 기업 계약이다.


인터넷보다 훨씬 직접적인 수익 구조다.


Q8. 올인원이 다 먹으면 2차 시장(API 기반 서비스)은 사라지지 않나요?

"ChatGPT 하나로 다 되는 거 아니야?

코드도 짜고, 글도 쓰고, 이미지도 만들고.

그러면 굳이 다른 서비스가 왜 필요해?"


이 질문에 대한 답은 직접 써본 사람은 안다.


얼마 전 GPT에서

지브리 스타일 이미지 생성 기능이 풀렸을 때 무슨 일이 있었나?

사람들이 몰려들었고, GPT 전체가 느려졌다.


텍스트 대화도 버벅거렸다.

왜? 이미지 생성은 연산량이 엄청나기 때문이다.

고해상도 이미지를 만들려면 GPU와 메모리를 많이 잡아먹는다.


그걸 수백만 명이 동시에 요청하면, 서버가 버티질 못한다.


나는 지금도 GPT에서 이미지 생성은 안 맡긴다.

프롬프트 설계는 GPT로 하고, 실제 생성은 다른 툴에서 한다.

시간 차이가 크다. 이건 취향이 아니라 리소스 최적화다.


올인원이 모든 걸 직접 하려면,

지금 리소스의 "몇 배"가 아니라 비즈니스 모델 자체를 바꿔야 한다.


GPU 비용, 전기료, 서버 유지비가 폭증한다.

그런데 B2C 구독료는 월 20~30달러가 한계다. (개인사용기준)


가격을 올리면 사용자가 이탈한다. 수지가 안 맞는다.

그래서 올인원은 필연적으로 트레이드오프에 직면한다.


범용성을 높이면 개별 기능의 퀄리티나 속도가 떨어진다.

퀄리티를 올리려면 비용이 올라가거나 속도가 느려진다.

속도를 유지하려면 기능을 제한하거나 퀄리티를 80점에서 멈춰야 한다.


셋 다 동시에 최상으로 가져갈 수 없다.


그래서 현실적인 구조는 공존이다.

올인원은 "80점 기본 기능"을 제공한다.

프롬프트 설계, 기획, 구조화, 방향 설정. 쉽게 말해 "두뇌" 역할이다.


그리고 최고 품질의 실제 생성, 렌더링, 전문 워크플로우는 특화 서비스가 가져간다.

"손과 근육" 역할이다.


2차 시장이 살아남으려면 조건이 있다.

워크플로우와 도메인을 고정해서

"시작부터 제출까지" 하나의 목표 달성 패키지로 묶는 것.


템플릿, 브랜드, 데이터 자산을 제공해서 일관된 퀄리티를 보장하는 것.

출처 확인, 저작권 체크, 사실 검증 같은 컴플라이언스를 책임지는 것.

이런 영역은 올인원이 흡수하기 어렵다.


Q9. "개인 AGI가 로컬로 내려온다"는 말은 결국 서버 RAG를 PC에 옮기는 건가요?

핵심만 말하면, 맞다.

개인 PC형 AGI를 현실적으로 구현한다는 건

"로컬 RAG + 에이전트(툴 사용) + 필요시 클라우드 호출"을 PC 안으로 옮겨 심는 것이다.


RAG가 뭔지 간단히 설명하면 이렇다.


문서를 수집하고, 의미 단위로 인덱싱하고,

질문이 들어오면 관련된 조각만 검색해서,

그 조각을 LLM에 넣고 답변을 생성하는 구조다.


서버에서 기업용으로 많이 쓰는 방식이다.


이걸 개인 PC로 내리면 뭐가 달라지나?

데이터 소스가 "내 컴퓨터"가 된다.

내 폴더, 내 문서, 내 PDF, 내 PPT, 내 메일, 내 노트. 이걸 로컬에서 인덱싱하고,

질문하면 필요한 부분만 검색해서 답변하거나 파일 후보를 제시한다.


"몇 달 전에 만든 최종본 문서 찾아줘." 이런 요청이 가능해진다.

파일명 패턴, 수정 시간, 저장 위치, 내용의 의미까지 조합해서 찾아준다.

"최종본"인지 아닌지도 추론할 수 있다.

길이가 더 완성돼 있는지, 'TODO'나 '초안' 같은 흔적이 적은지, 문체가 매끄러운지.


다만 RAG는 "지식 접근 방식"이고,

AGI는 거기에 더해서 실행, 계획, 권한, 라우팅까지 포함한 시스템이다.


파일을 찾는 것뿐 아니라,

그 파일을 기반으로 발표자료를 만들고,

메일 초안을 쓰고, 캘린더에 일정을 잡고.

이런 "행동"까지 가는 게 AGI다.


그리고 개인 데이터는 프라이버시 문제가 있어서 로컬이 가치가 크다.

내 파일을 서버로 다 올릴 필요 없이,

로컬에서 처리하고,

정말 어려운 질문이나 고품질 생성이 필요할 때만

클라우드를 호출하는 구조. 이게 현실적인 하이브리드다.


Q10. GPT vs Gemini처럼 "대화가 쌓이면 느려지고, 초기 내용 날리면 못 찾고" 이 트레이드오프는 해결되나요?

이건 LLM 서비스의 근본적인 트레이드오프다.

GPT 스타일은 같은 대화에서 앞 내용을 계속 참조하려는 성향이 강하다.

"이전에 했던 맥락을 이어서" 작업하는 데 유리하다.

하지만 컨텍스트(토큰)가 길어질수록 느려지고 비용이 증가한다.


Gemini 스타일은 길게 누적하기보단 "지금 질문" 중심으로 빠르게 답한다.

앞 내용을 요약하거나 과감히 버린다.

속도와 비용이 안정적이지만,

"몇 시간 전 작업을 그대로 이어가기" 같은 연속 작업에는 불리하다.


그래서 즉답형 질문에는 후자가 유리하고,

연속 작업이나 생산성 도구로 쓰려면 전자가 유리하다.

용도가 다른 것이다.


그럼 이 트레이드오프는 해결되나?

완전히 해결되진 않지만, 현실적인 해법이 있다.


정답은 "무한 컨텍스트"가 아니다. "필요한 것만 뽑아 넣는 시스템"이다.


개인 데이터 전체를 저장하고 인덱싱한다. 이건 RAG다.

요청이 오면 관련 조각만 검색해서 컨텍스트에 넣는다.

GPU에 들어가는 입력은 제한된 길이로 유지한다.


데이터는 무한히 커져도 추론 입력은 작게 유지하는 구조다.


그래도 고품질 추론이나 대형 작업은 서버 호출이 남는다.

완전 로컬만으로는 한계가 있다.

그래서 하이브리드가 필연이다.


쉬운 건 로컬에서,

어려운 건 클라우드에서,

민감 정보는 로컬 전용.


이런 라우팅이 자동으로 일어나는 게 근미래형 개인 AGI의 핵심이다.


Q11. 그럼 왜 소수의 대형 LLM이 계속 확장하죠?

"RAG로 필요한 것만 넣으면 되는데, 왜 GPU와 데이터센터가 계속 커지나?"


세 가지 이유가 있다.


첫째, 동시 사용자다.

개인마다 요청은 짧아도, 수억 명이 동시에 요청하면 연산량이 폭증한다.

ChatGPT 주간 활성 사용자가 7~9억 명이다.

이걸 다 받아주려면 GPU가 엄청 필요하다.


둘째, 에이전트화다.

"질문 하나"로 끝나는 게 아니다.

검색, 문서 읽기, 비교, 생성, 검증, 실행. 이런 멀티스텝으로 돌아간다.

한 번의 요청이 내부적으로 여러 번의 추론을 거친다.

총 계산량이 커질 수밖에 없다.


셋째, 품질 경쟁이다.

B2C는 결과물이 핵심이라고 했다.

더 정확하게, 더 안정적으로, 더 풍부하게 만들려면

계산량이 늘어나는 압력이 있다.


환각(hallucination)을 줄이고,

추론 정확도를 올리고,

복잡한 문제를 풀려면 더 큰 모델,

더 많은 계산이 필요하다.


결국 품질 경쟁은 연산 인프라로 귀결된다.

데이터센터와 전력이 "AI 품질"의 직접 변수가 된다.


그래서 AI는 소프트웨어 붐이 아니라 연산 인프라 혁명이다.

소수의 대형 플레이어가 계속 확장할 수밖에 없는 구조다.


Q12. 국산 AI가 수능/고난도 문제에서 약한 건 결국 데이터 때문인가요?

최근 국산 AI와 외국 AI로 수능 문제를 푸는 연구 결과가 나왔다.

국산 모델은 기대 대비 약했고, 외국 모델은 엄청난 성과를 보였다.


데이터 때문인가? 데이터는 한 요소일 뿐이다.


학습 데이터,

즉 어떤 언어와 도메인의 텍스트로 학습했느냐는 분명히 중요하다.

한국어 데이터가 부족하면 한국어 이해력이 떨어질 수 있다.

하지만 수능 수학이나 논술 같은 고난도 추론에서 격차가 나는 건 데이터만의 문제가 아니다.


더 큰 차이는

"훈련 컴퓨트 + 실험 컴퓨트 + 서빙(추론) 체급"과

이를 품질로 바꾸는 운영 능력이다.


훈련 컴퓨트는 모델을 학습시키는 데 쓰는 GPU 시간이다.

실험 컴퓨트는 실패를 수백 번 감당하면서 최적의 설정을 찾는 비용이다.

서빙 컴퓨트는 실제로 사용자에게 답변을 줄 때 얼마나 많은 계산을 할 수 있느냐다.

이 세 가지가 "체급"을 결정한다.


그리고 컴퓨트를 품질로 바꾸는 운영 능력도 중요하다.

수학이나 추론에 특화된 튜닝,

선호학습(RLHF),

추론 시 더 생각하게 하는 전략,

좋은 평가 체계.

이런 게 쌓여야 고난도 문제에서 성과가 난다.


이 사례의 핵심은 "국뽕/국까"의 감정 비교가 아니다.

품질 격차가 어떻게 발생하고,

그 격차가 왜 연산 인프라로 연결되는가를 보여주는 상징이다.


B2C에서 결과물 품질이 구매 이유라면,

품질이 체급 차로 벌어질수록 상위 모델로 쏠린다.


동시에 개인 AGI로 개인 데이터가 붙으면서 플랫폼 락인이 강해진다.


Q13. 개인이 트레이딩 AI를 만들고 증권사 API와 붙이는 것도 '민주화'인가요?

결과(수익)와 별개로,

"기관급 파이프라인을 개인이 구현 가능"해지는 것 자체가 혁명이다.


예전에는 뭐가 필요했나?

데이터 수집, 인프라 구축, 백테스트, 실행/모니터링.

이게 다 "팀/기관급" 일이었다.

개인이 하기엔 너무 복잡했다.


지금은 다르다.

증권사 API, 오픈소스 프레임워크, 클라우드, LLM, 자동화 도구.

이걸 조합하면 구현 자체는 개인도 가능해진다.


깃헙에 예제와 샘플 전략이 공개돼 있다.

설치하고, 연결하고, 돌려볼 수 있다.


캡컷이 나오기 전에는 영상 편집 자체가 진입장벽이었다.

프리미어, 애프터이펙트, 복잡한 설정. 전문가 영역이었다.


캡컷이 나오면서 "버튼 + 템플릿"으로 초보도 결과물을 뽑게 됐다.

결과물의 격차는 여전히 있다. 하지만 참가권 자체가 열린 것이다.


트레이딩도 마찬가지다.

AI 에이전트가

설치, 환경 세팅, 오류 해결, 파이프라인 구성, 파라미터 튜닝, 백테스트 반복까지

대화로 도와준다면? "설정 노동"이 사라진다.


구현의 마찰이 제거된다.

이건 "우승"이 아니라 "참가권"이 대중에게 풀리는 변화다.


다만 경계선은 명확히 해야 한다.

자동매매는 손실 속도가 인간보다 빠르다.

잘못 연결되면 순식간에 계좌가 망가질 수 있다.

백테스트 착시(과최적화)도 위험하다.

AI가 튜닝을 "너무 잘" 하면 오히려 과적합이 쉬워진다.

브로커 API의 주문 빈도 제한, 레이트 리밋 같은 현실 제약도 있다.


그래서 "완전 자동"보다는

제안/분석/알림 + 사람 승인(세미 오토)이 더 현실적인 첫 단계다.

엄격한 리스크 룰(손실 제한, 포지션 제한)도 필수다.

구현 가능성이 열렸다고 해서 리스크가 사라지는 건 아니다.


Q14. 결론적으로 B2C 구독은 계속 커질까요, 아니면 유행으로 끝날까요?

나는 계속 커진다 쪽에 손을 든다. 이유는 구조적이다.


첫째, AI는 편의가 아니라 경쟁력(결과물)을 팔기 때문에 지불 의지가 강하다.

넷플릭스는 "즐거움"에 돈을 낸다.

하지만 AI 구독은 "성과"에 돈을 낸다.


내 업무 결과물이 좋아지고, 내 시간이 절약되고,

내가 할 수 없던 일을 할 수 있게 되니까 낸다.


이건 앱 구독이 아니다.

"내 능력을 올려주는 도장 이용료"에 가깝다.

학원비, PT비, 코칭비 같은 성격이다. 편의비가 아니라 투자다.


둘째, 개인 데이터와 결합할수록 락인이 강해진다.

개인 AGI가 내 파일, 내 메모, 내 작업 습관,

내 스타일을 학습하면 전환 비용이 커진다.

다른 서비스로 갈아타면 그 개인화가 다 날아간다.

쓰면 쓸수록 떠나기 어려워지는 구조다.


셋째, 현대 지식노동의 본질이 "PC를 다루는 능력"이고, AI가 그걸 상향 평준화한다.

파일 찾기, 문서 작성, PPT, 메일, 일정 관리.

이런 "PC 노가다"를 AI가 대신해준다.


이건 편리함이 아니라 업무 능력 자체의 확장이다.

AI 구독은 "앱 결제"가 아니라 개인 생산성 OS/장비비가 된다.

없으면 불편한 수준을 넘어서, 없으면 경쟁에서 뒤처지는 수준으로 간다.


물론 변수는 있다.

모델 경쟁이 심해지면 구독료가 하락 압력을 받을 수 있다.


오픈소스 모델이 퍼지면 가격 기준점이 낮아진다.

사용자 수는 늘어도 ARPU(사용자당 매출)가 기대만큼 안 나올 수도 있다.

구독 피로도 변수다.


그래도 방향은 명확하다.

AI 구독은

"한 번 써보고 끝"이 아니라

"계속 쓰면서 내 일부가 되는" 구조로 가고 있다.


유행이 아니라 습관이 되고, 습관이 아니라 인프라가 된다.



시리즈 [AI 버블론을 해체한다.]는 1부~4부부록 Q&A를 끝으로 마무리하겠습니다.

작게나마 도움이 되었기를 바랍니다.

keyword
이전 17화AI 버블을 해체한다. 4부 - 최종편