저는 개발자 출신이 아니어서 그런지 스택이라는 단어가 익숙지 않습니다. 스택(stack), 사전을 보면 명사로는 깔끔하게 정돈된 더미(책 한 더미, 짚단 더미), 대량을 뜻하고, 동사로는 쌓다, 포개다, 채우다라는 뜻이더라고요.
개발에 필요한 단계별 작업, 혹은 갖춰야 할 요건을 업계에선 스택이라고 부르는 것 같습니다. IBM 자료를 읽어보니 AI 산업에선 흔히 인프라 단계가 최하부 구조를 이루고, 그 토대 위에 데이터가 깔립니다. 그 위에 모델이, 그 위에 애플리케이션이 깔리는 구조입니다. 동래파전 만들기 위해 먼저 프라이팬을 준비하고, 그 위에 부침물 깔고 그 위에 파 올리고, 갖은 해물 토핑하는 느낌이랄까요. ㅎㅎ
그래프를 보면 구글은 AI 스택의 전체적인 요건을 갖춘 유일한 기업입니다. 본 분석에서는 AI 스택을 다음과 같이 분류했는데요.
1. 하드웨어(Accelerator Hardware)
2. 클라우드 인퍼런스(Cloud Inference)
3. 파운데이션 모델(Foundation Models)
4. 애플리케이션(Applications)
이 관점에서 보면 Google은 유일하게 모든 스택을 자체 기술로 수직 통합(Vertical Integration)한 기업입니다. 칩(TPU)에서부터 클라우드(Google Cloud), 모델(Gemini), 그리고 서비스(Gmail, Workspace 등)까지 전 과정을 하나의 생태계로 만들어낸 겁니다.
오픈AI나 Anthropic은 모델과 애플리케이션에는 강하지만, 인프라층은 Azure나 AWS에 의존합니다. 마이크로소프트와 아마존은 인프라 기반을 갖췄지만, 모델의 핵심은 파트너사에 맡기는 구조입니다. 결국 대부분의 기업이 스택의 일부만 담당하고, 이게 AI산업 밸류체인을 구성하는 중인데요.
Google은 AI 스택 전체를 소유·운영하는 유일한 기업이기에 데이터 흐름을 외부로 내보내지 않고, 학습과 추론, 서비스 전 과정을 하나의 파이프라인으로 최적화할 수 있습니다. 이론적으로 말하면 원가 구조는 단단해지고 서비스의 응답 속도와 안정성은 높아질 겁니다. 다만, 이렇게 통합되면 혁신의 속도가 느려질 수 있죠. 폐쇄적 구조에서는 외부의 실험적 기술이나 협력의 여지가 줄어들기 때문입니다.
오픈AI와 구글이 여기서 차이납니다. 오픈AI는 최근 AWS와 380억 달러(54조원)의 장기 클라우드 계약을 체결했습니다. MS에 의존하지 않겠다는 거죠. 이 계약을 보면 AWS는 오픈AI에 7년 간 클라우드를 제공하면서도 엔비디아 GPU 수십만 개를 사용할 권리까지 포함시켜줬습니다. 엄청난 혜택이죠. 미국 전역의 EC2 울트라서버, 수천억 규모의 인프라에 대한 선구매 계약까지 맺었습니다.
이미 마이크로소프트와 오픈AI는 2,500억 달러 규모의 Azure 사용 계약을 맺어놓은 상태입니다. 여기에 엔비디아, AMD, 중동 국부펀드 등과 맺은 총 초대형 AI인프라, 칩, 클라우드 투자 약정 금액만 한화 1,400조 원에 달합니다. 오픈AI는 AI스택을 타사와의 협약으로 충당하고 있는 셈이죠. 구글과 달리 오픈AI가 휘청하면 협약을 맺고 있는 전체 기업들이 연쇄적으로 휘청할 수 있는 구조입니다. 초거대 우량 기업으로 평가 받지만, 본질적으론 스타트업인 상태에서 효율의 극대화를 위해 어쩔 수 없는 선택이었습니다.
앞으로 세상은 구글 천하가 될까요, 오픈AI가 AI 밸류체인의 중심을 차지할까요. AI 산업이 복잡해질수록 풀스택의 버티컬을 모두 소유하는 게 맞을지, 오픈AI처럼 '오픈'해놓고 가는 게 맞을지 지켜볼 대목입니다.