brunch

You can make anything
by writing

C.S.Lewis

by delight May 06. 2023

AI 인프라 비용 딜레마의 현재와 미래

학습 차원에서 틈틈이 해외 전문가들이 블로그나 미디어 그리고 책에서 쓴 글을 번역 또는 요약 정리하고 있습니다. 이번 포스팅도 그중 하나고요. 거칠고 오역된 부분이 있을 수 있습니다. 제대로 번역되지 않은 부분은 확인 주시면 반영토록 하겠습니다. 번역 과정에서 의미 전달이 애매한 일부 문장은 삭제했습니다이번 글은안드레센 호로위츠 웹사이트에 실린 글을 정리한 것입니다.


생성 AI 붐은 컴퓨팅에 종속돼 있다. AI는 더 많은 컴퓨팅을 추가하면 더 나은 제품으로 직결되는 독특한 속성이 있다. 일반적으로 R&D 투자는 제품 가치와 더 직접적으로 연관돼 있고 그 관계는 현저하게 비선형적이다. 하지만 현재 인공지능은 그렇지 않다. 그 결과 오늘날 업계를 이끄는 지배적인 요인은 간단히 말해 학습 및 추론 비용이다.


정확한 수치는 알 수 없지만, 공신력 있는 소식통들에 따르면 컴퓨팅 공급이 매우 제한적이어서 수요가 10배(?)앞선다고 한다. 따라서 현재로선 가장 낮은 총 비용으로 컴퓨팅 자원에 액세스하는 것이 AI 기업 성공을 결정하는 요인이 되었다고 해도 과언이 아니라고 본다. 실제로 많은 기업들이 총 조달 자본에서 80% 이상을 컴퓨팅 리소스에 지출하는 것으로 파악하고 있다.


이번 글에서는 AI 기업 비용 요소를 세분화해 보려고 한다. 물론 절대적인 수치는 시간이 지나면서 달라지겠지만, AI 기업이 컴퓨팅 리소스 액세스에 얽매이는 것이 당장 완화될 것 같지는 않다. 이 글이 상황을 파악하는 데 도움이 되길 바란다.


AI 모델 계산 비용이 비싼 이유는 무엇인가?

생성 AI 모델들은 매우 다양하며 추론 및 학습 비용은 모델 크기와 유형에 따라 달라진다. 다행히 요즘 가장 많이 사용되는 모델들은 대부분 트랜스포머 기반 아키텍처로, 여기에는 GPT-3, GPT-J 또는 BERT와 같은 인기 있는 대규모 언어 모델(LLM)들이 포함된다. 트랜스포머에서 추론 및 학습을 위한 정확한 연산 횟수는 모델마다 다르지만, 모델 파라미터들 수(즉, 신경망의 가중치)와 입력 및 출력 토큰( tokens) 수에만 의존하는 상당히 정확한 경험 법칙이 있다.


토큰들은 기본적으로 몇 개 문자로 이루어진 짧은 시퀀스(sequences )로 단어 또는 단어 일부에 해당된다. 토큰에 대한 직관을 얻는 가장 좋은 방법은 공개적으로 사용 가능한 온라인 토큰화 도구(예: OpenAI)를 사용해 토큰화(tokenization)를 시도해 보는 것이다. GPT-3의 경우 토큰 평균 길이는 4자다. 훈련 데이터의 토큰 수를 활용해 총 훈련 비용을 대략적으로 계산할 수 있다. 모델들을 훈련시키는 것은 지금까지 인류가 수행한 작업 중 가장 계산 집약적인 작업들 중 하나다.


요약하자면 AI 인프라는 기본 알고리즘 문제가 컴퓨팅 측면에서 매우 어렵기 때문에 비용이 많이 든다. 백만 개 항목이 있는 데이터베이스 테이블을 정렬하는 알고리즘의 복잡성은 GPT-3로 단일 단어를 생성하는 복잡성에 비하면 미미한 수준이다. 이것은 당신이 당신의 활용 사례를 해결할 수 있는 가장 작은 모델을 선택하고 싶다는 것을 의미한다. 좋은 소식은 트랜스포머의 경우 특정 크기 모델이 얼마나 많은 컴퓨팅과 메모리를 소비할지 쉽게 예측할 수 있다는 것이다. 따라서 올바른 하드웨어를 선택하는 것이 다음 고려 사항이 된다.


GPU에 대한 시간 및 비용 논쟁

실제로 요즘 모든 AI 모델들은 매우 많은 특화된 코어들을 사용하는 카드에서 실행된다. 예를 들어, NVIDIA A100 GPU에는 512개 텐서 코어들이 있어 한 사이클에 4×4 행렬 곱셈을 수행할 수 있다. AI 가속기 카드는 원래 데스크톱 게임용으로 개발된 아키텍처이기 때문에 흔히 GPU(그래픽 처리 장치)라고도 불린다. 앞으로 AI는 점점 더 별개 제품군이 될 것으로 우리는 예상하고 있다.


트랜스포머 모델을 학습하는 데는 추론을 수행하는 것보다 토큰당 시간이 3배 더 걸린다. 그러나 훈련 데이터 셋이 추론 프롬프트보다 약 3억 배 더 크다는 점을 감안하면 훈련 시간은 10억 배 더 오래 걸린다. 단일 GPU에서는 훈련에 수십 년이 걸리지만, 실제로는 전용 데이터 센터 대규모 컴퓨팅 클러스터나 클라우드에서 수행된다. 또한 학습은 노드들 간에 업데이트된 가중치를 교환해야 하므로 추론보다 병렬 처리가 더 어렵다. 고속 인터커넥트 및 전용 패브릭이 일반화되면서 GPU 간 메모리와 대역폭이 훨씬 더 중요한 요소가 되는 경우가 많다. 초거대 모델을 훈련하려면 적절한 네트워크 설정을 만드는 것이 가장 큰 과제일 수 있다. 미래에는 AI 가속기에 카드나 칩에 네트워킹 기능이 탑재될 것이다.


요약하면 생성AI는 현재 AI 인프라에 막대한 투자를 필요로 한다. 가까운 미래에 이 상황이 바뀔 것이라고 믿을 이유는 없다. GPT-3와 같은 모델을 훈련하는 것은 인류가 지금까지 수행한 작업 중 가장 계산 집약적인 작업들 중 하나다. GPU가 점점 더 빨라지고 있고 훈련을 최적화하는  방법을 찾고 있지만, AI의 급속한 확장은 이 두 가지 효과를 모두 무력화시킨다.


AI 인프라에 대한 고려 사항들

지금까지 AI 모델 학습 및 추론에 필요한 규모와 이를 구동하는 기본 매개변수에 대한 직관을 제공하기 위해 노력했다. 이러한 맥락에서 이제 어떤 AI 인프라를 사용할지 결정하는 방법에 대한 몇 가지 실용적인 지침을 제공하고자 한다.


외부 인프라 대 자체 인프라

현실을 직시하라: GPU는 훌륭하다. 많은 엔지니어와 엔지니어링 마인드를 가진 많은 창업자들은 모델 트레이닝을 세밀하게 제어할 수 있을 뿐만 아니라 대량 컴퓨팅 성능을 활용하는 것이 재미있기 때문에 자체 AI 하드웨어를 프로비저닝하는 것에 선입견을 갖고 있다.


하지만 현실적으로 많은 스타트업, 특히 앱 기업들은 첫날부터 자체 AI 인프라를 구축할 필요가 없다. 대신, OpenAI나 Hugging Face(언어용), Replicate(이미지 생성용)와 같은 호스팅 모델 서비스를 사용하면 창업자가 기본 인프라나 모델을 관리할 필요 없이 제품 시장에 적합한 모델을 빠르게 찾을 수 있다.


이들 서비스는 매우 훌륭해져서 많은 회사들이 이러한 서비스들에서 벗어나지 못하고 잇다. 개발자들은 신속한 엔지니어링과 고차원적인 미세 조정 추상화(즉, API 호출을 통한 미세 조정)를 통해 모델 성능을 의미 있게 제어할 수 있다. 이들 서비스 가격은 사용량에 따라 책정되므로 별도 인프라를 운영하는 것보다 저렴한 경우가 많다. 내부적으로 호스팅 모델 서비스를 운영하면서 5000만달러 이상 ARR을 창출하고 기업 가치가 10억 달러가 넘는 앱 회사들도 나오고 있다.


반면 일부 스타트업, 특히 새로운 기반 모델을 학습하거나 수직적으로 통합된 AI 애플리케이션을 구축하는 스타트업들은 GPU에서 직접 자체 모델을 실행할 수 밖에 없다. 모델이 사실상 제품이고 팀이 '모델-시장 적합성'을 찾고 있고 있기 때문이거나 아니면 특정 기능을 달성하거나 한계 비용을 크게 줄이기 위해 훈련, 추론에 대한 세밀한 제어가 필요하기 때문일 수 있다. 어느 쪽이든 인프라 관리는 경쟁 우위의 원천이 될 수 있다.


클라우드 대 데이터 센터 구축

대부분의 경우, 클라우드는 AI 인프라에 적합하다. 초기 비용이 적고, 확장 및 축소할 수 있으며, 지역별 가용성이 있고, 자체 데이터 센터를 구축하는 데 따른 방해가 적다는 점이 스타트업과 대기업에게 매력적이다.

하지만 이 규칙에는 몇 가지 예외들이 있다.


매우 큰 규모로 운영하는 경우 자체 데이터 센터를 운영하는 것이 더 비용 효율적일 수 있다. 정확한 가격대는 지리적 위치와 설정에 따라 다르지만 일반적으로 연간 5000만달러 이상 인프라 지출이 필요로 한다. 클라우드 제공업체에서 구할 수 없는 매우 특정한 하드웨어가 필요하다. 예를 들어, 널리 사용되지 않는 GPU 유형이나 일반적이지 않은 메모리, 스토리지 또는 네트워킹 요구 사항들이 있다.


지정학적 고려 사항을 수용할 수 있는 클라우드를 찾을 수 없는 경우

자체 데이터센터를 구축하려는 경우, 자체 설정을 위한 GPU에 대한 포괄적인 가격/성능 분석이 있다(예: Tim Dettmer의 분석). 하드웨어 선택은 카드 자체 비용과 성능 외에도 전력, 공간, 냉각에 따라 달라진다. 예를 들어, 두 개 RTX 3080 Ti 카드를 함께 사용하면 로(Raw) 컴퓨팅 용량은 A100과 비슷하지만, 각각의 전력 소비량은 700W 대 300W이다. 3년 수명 주기에 걸쳐 $0.10/kWh의 시장 요금을 적용하면3,500kWh의 전력 차이는 RTX3080 Ti 비용을 거의 2배(약 1,000달러)로 증가시킨다. 이 모든 것을 고려할 때 대부분의 스타트업들이 클라우드 컴퓨팅을 사용할 것으로 예상된다.


클라우드 서비스 제공업체들 비교

Amazon Web Services(AWS), Microsoft Azure, Google Cloud Platform(GCP)은 모두 GPU 인스턴스를 제공하지만, AI 워크로드에 특히 집중하는 새로운 제공업체들도 나오고 있다. 다음은 많은 창업자들이 클라우드 서비스 제공업체를 선택할 때 사용하는 프레임워크다.


가격: 아래 표는 2023년 4월 7일 기준으로 여러 주요 및 소규모 전문 클라우드 가격을 보여준다. 이 데이터는 네트워크 대역폭, 데이터 송신 비용, CPU 및 네트워크 추가 비용, 사용 가능한 할인 및 기타 요인에 따라 인스턴스가 상당히 다양하므로 참고용일 뿐이다. 특정 하드웨어 컴퓨팅 용량은 범용 상품이다. 상당히 균일한 가격이 책정될 것으로 예상할 수 있지만 실제로는 그렇지 않다. 클라우드 간에 상당한 기능 차이가 존재하지만, 온디맨드 NVIDIA A100 가격이 제공업체마다 거의 4배나 차이가 나는 것을 설명하기에는 충분하지 않다.

가격대가 가장 높은 대형 퍼블릭 클라우드들은 브랜드 평판, 입증된 안정성, 광범위한 워크로드 관리 필요성에 따라 프리미엄을 부과한다. 소규모 전문 AI 제공업체는 전용 데이터 센터(예: Coreweave)를 운영하거나 다른 클라우드(예: 람다 랩스)를 차익 거래해 더 낮은 가격을 제공한다.


실제로 대부분의 대형 구매자들은 클라우드 제공업체와 직접 가격을 협상하며, 최소 지출 요건과 최소 시간 약정(1~3년)을 약정하는 경우가 많다. 협상 후에는 클라우드 간 가격 차이가 다소 줄어들지만, 위에 제시한 표의 순위는 비교적 안정적으로 유지되는 것을 볼 수 있다. 또한 소규모 기업은 큰 지출 약정 없이도 전문 클라우드에서 공격적인 가격을 받을 수 있다는 것을 주목할 필요가 있다.


가용성: 가장 강력한 GPU(예: Nvidia A100) 12개월 이상 지속적으로 공급이 부족한 상황이다. 구매력과 리소스 풀이 큰 상위 3개 클라우드 제공업체들 가용성이 가장 좋을 것이라고 생각하는 것이 합리적일 수 있다. 하지만 놀랍게도 많은 스타트업들은 그렇지 않다는 사실을 발견하고 있다. 대형 클라우드들은 많은 하드웨어를 보유하고 있을 뿐만 아니라 충족해야 할 고객 니즈도 크며(예: Azure는 ChatGPT의 기본 호스트), 수요를 충족하기 위해 지속적으로 용량을 추가/임대하고 있다. 한편, Nvidia는 새로운 전문 제공업체들을 위한 할당을 포함해 업계 전반에서 하드웨어를 광범위하게 사용할 수 있도록 노력해 왔다. (이는 공정성을 확보하고 경쟁 관계에 있는 몇몇 대형 고객에 대한 의존도를 낮추기 위한 것이다.)


그 결과, 많은 스타트업들은 소규모 클라우드 제공업체들에서 최첨단 Nvidia H100을 비롯한 더 많은 칩을 사용할 수 있다. 새로운 인프라 회사와 협력할 의향이 있다면 하드웨어 대기 시간을 줄이고 그 과정에서 비용을 절감할 수 있다.


컴퓨팅 딜리버리 모델: 오늘날 대형 클라우드들은 전용 GPU가 있는 인스턴스만 제공하는데, 그 이유는 GPU 가상화가 아직 해결되지 않은 문제이기 때문이다. 전문 AI 클라우들은 인스턴스 시작(start-up) 및 해체(tear-down ) 비용 없이 개별 작업들을 처리할 수 있는 컨테이너 또는 배치 작업과 같은 다른 모델들 제공한다. 이 모델에 익숙하다면 비용을 크게 절감할 수 있다.


네트워크 상호 연결(Network interconnects): 특히 훈련의 경우 네트워크 대역폭은 제공업체 선택에서 주요 요소다. 특정 대형 모델을 훈련하려면 노드 간 전용 패브릭(예: NVLink)이 있는 클러스터가 필요하다. 이미지 생성의 경우 전송 트래픽 요금도 주요 비용 요인이 될 수 있다.


고객 지원: 대형 클라우드 제공업체들은 수천 개 제품 SKU에 걸쳐 방대한 고객 풀에 서비스를 제공한다. 대형 고객이 아니라면 고객 지원팀의 관심을 끌거나 문제를 해결하기가 어려울 수 있다. 반면많은 전문 AI 클라우드들은 소규모 고객에게도 빠르고 신속한 지원을 제공한다. 이는 부분적으로는 소규모로 운영되기 때문이기도 하지만, 워크로드가 더 균질하기 때문에 AI 관련 기능 및 버그에 집중할 유인이 더 높기 때문이기도 하다.


GPU들 비교

다른 모든 것들이 동일하다면, 최고급 GPU는 거의 모든 워크로드에서 최고 성능을 발휘한다. 하지만 아래 표에서 볼 수 있듯 최고급 하드웨어는 가격도 상당히 비싸다. 특정 애플리케이션에 적합한 유형의 GPU를 선택하면 비용을 크게 절감할 수 있다. 실행 가능하고 그렇지 않은 비즈니스 모델에 대한 차이를 만들 수 있다.


목록에서 어디까지 내려갈지 결정하는 것, 즉 애플리케이션에 가장 비용 효율적인 GPU를 선택하는 것은 이 글의 범위를 벗어나는 기술적인 결정이다. 하지만 가장 중요하다고 생각되는 몇 가지 선택 기준을 공유한다.

훈련과 추론: 트랜스포머 모델을 훈련하려면 모델 가중치 외에 8바이트 훈련용 데이터를 저장해야 한다. 즉, 12GB 메모리를 갖춘 일반적인 하이엔드 소비자용 GPU로는 40억개 파라미터를 가진 모델을 훈련하는 데 겨우 사용할 수 있다. 실제로 대규모 모델 학습은 서버당 GPU 수가 많고, VRAM이 많으며, 서버 간 연결 대역폭이 높은 머신 클러스터(즉, 최고급 데이터센터 GPU를 사용하여 구축된 클러스터)에서 수행된다.


특히 많은 모델들이 NVIDIA H100에서 가장 비용 효율적이지만, 현재로서는 찾기 어렵고 일반적으로 1년 이상 장기 약정이 필요하다. 현재 대부분의 모델 훈련을 실행하는 NVIDIA A100은 더 쉽게 찾을 수 있지만 대규모 클러스터의 경우 장기 약정이 필요할 수 있다.


메모리 요구 사항: 대규모 LLM들은 매개변수 수가 너무 많아서 어떤 카드에는 넣기 어렵다. 여러 카드에 분할해야 하며 훈련과 유사한 설정이 필요합니다. 즉, LLM 추론을 위해서도 H100 또는 A100이 필요할 수 있다. 하지만 더 작은 모델(예: 스테이블 디퓨전)은 훨씬 적은 VRAM을 필요로 한다. A100이 여전히 인기가 있지만, 스타트업들에서는 A10, A40, A4000, A5000, A6000, 심지어 RTX 카드까지 사용하는 것을 볼 수 있다.


하드웨어 지원: 우리와 대화를 나눈 기업들 워크로드 대부분은 NVIDIA에서 실행되지만, 일부 기업은 다른 공급업체와 함께 실험을 시작했다. 가장 일반적인 것은 Google TPU이지만 인텔 가우디 2도 어느 정도 주목을 받고 있는 것으로 보인다. 이러한 공급업체들의 문제는 모델 성능이 이들 칩에 대한 소프트웨어 최적화 가용성에 크게 좌우되는 경우가 많다는 것이다. 성능을 파악하려면 PoC를 수행해야 할 가능성이 높다.


지연 시간 요구 사항: 일반적으로 지연 시간에 덜 민감한 워크로드(예: 일괄 데이터 처리 또는 대화형 UI 응답이 필요하지 않은 애플리케이션)들은 성능이 낮은 GPU를 사용할 수 있다. 이렇게 하면 컴퓨팅 비용을 최대 3~4배까지 절감할 수 있다(예: AWS에서 A100과 A10 비교). 반면 사용자들이 쓰는 앱은 매력적인 실시간 사용자 경험을 제공하기 위해 최고급 카드가 필요한 경우가 많다. 비용을 관리 가능한 범위로 낮추려면 모델을 최적화해야 하는 경우가 많다.


급격한 변화(spikiness): 생성 AI는 매우 새롭고 흥미로운 기술이기 때문에 수요가 급격히 증가하는 경우가 많다. 신제품 출시에 따라 요청량이 하루 만에 10배 증가하거나 매주 꾸준히 50%씩 증가하는 것은 드문 일이 아니다. 이같은 상황은 저사양 GPU에서 처리하는 것이 더 쉬운 경우가 많다. 더 많은 컴퓨팅 노드를 필요에 따라 사용할 수 있기 때문이다. 또 이러한 종류 트래픽이 참여도가 낮거나 리텐션이 낮은 사용자로부터 발생하는 경우 성능을 희생하더라도 저비용 리소스로 처리하는 것이 합리적일 때가 많다.


모델 최적화 및 스케줄링

소프트웨어 최적화는 모델 런타임에 큰 영향을 미칠 수 있다. 10배까지 향상되는 경우도 드물지 않다. 하지만 특정 모델과 시스템에 가장 효과적인 방법을 결정해야 한다. 일부 기법들은 상당히 광범위한 모델에서 작동한다. 더 짧은 부동소수점 표현(예: 원래 FP32에 비해 FP16 또는 FP8) 또는 양자화(INT8, INT4, INT2)를 사용하면 비트 감소에 따라 선형적인 속도 향상을 달성할 수 있다. 이를 위해서는 때때로 모델을 수정해야 하지만, 정밀도는 떨어지지난 작업을 자동화하는 기술이 점점 더 많이 사용되고 있다.


신경망 가지치기(Pruning neural networks)는 값이 낮은 가중치를 무시해 가중치 수를 줄인다. 효율적인 희소 행렬 곱셈(sparse matrix multiplication)과 함께 최신 GPU에서 상당한 속도 향상을 달성할 수 있다. 또 다른 최적화 기법들은 메모리 대역폭 병목 현상을 해결한다(예: 모델 가중치 스트리밍).


다른 최적화 기법들은 모델들에 매우 특화돼 있다. 예를 들어, 스테이블 디퓨전은 추론에 필요한 VRAM의 양을 크게 개선했다. 또 다른 종류 최적화들은 하드웨어에 따라 다르다. NVIDIA의 TensorRT에는 여러 가지 최적화가 포함돼 있지만 NVIDIA 하드웨어에서만 돌아간다. 마지막으로, AI 작업 스케줄링은 성능 병목 현상이나 개선을 크게 만들 수 있다. 가중치 교체를 최소화하는 방식으로 모델을 GPU에 할당하고, 여러 GPU를 사용할 수 있는 경우 작업에 가장 적합한 GPU를 선택하며, 워크로드를 미리 배치하여 다운타임을 최소화하는 것이 일반적인 기술이다.


결국, 모델 최적화는 여전히 다소 까다로운 기술이며, 우리가 대화하는 대부분의 스타트업들은 이러한 소프트웨어 측면을 지원하기 위해 다른 회사들과 협력하고 있다. 이들 업체는 전통적인 MLops 공급업체들 아니라 특정 생성 모델(예: OctoML 또는 SegMind)에 대한 최적화를 전문으로 하는 회사인 경우가 많다.


AI 인프라 비용은 어떻게 진화할까?

모델 파라미터들과 GPU 컴퓨팅 성능은 지난 몇 년 동안 기하급수적으로 증가해 왔으며, 이러한 추세가 계속될지는 불투명하다.


오늘날 최적의 파라미터 수와 학습 데이터셋 크기 사이에는 관계가 있다는 것이 널리 받아들여지고 있다.  오늘날 최고 LLM들은 현존하는 모든 웹 페이지에서 약 10%인 45억개 웹 페이지 모음인 커먼 크롤(Common Crawl)을 기반으로 학습한다. 학습용 말뭉치에는 Wikipedia와 도서 컬렉션도 포함되지만 둘 다 그 규모가 훨씬 작다.(현존하는 도서 총 수는 약 1억 권에 불과한 것으로 추정된다.) 비디오나 오디오 콘텐츠를 말로 옮기는 것과 같은 다른 아이디어도 제안되었지만 이 규모에 근접한 것은 없습다.이미 사용된 것보다 10배나 큰 비합성 훈련 데이터셋을 얻을 수 있을지는 불분명하다.


GPU 성능은 계속 개선되겠지만 그 속도는 느릴 것이다. 무어의 법칙은 여전히 유효해 더 많은 트랜지스터와 더 많은 코어를 허용하지만 전력과 I/O가 제한 요소가 되고 있다. 최적화를 위한 많은 성과도 거두고 있다.

하지만 그렇다고 컴퓨팅 용량에 대한 수요가 증가할 것으로 예상하지 않는 것은 아니다. 모델과 훈련 셋 성장이 둔화되더라도 AI 산업 성장과 AI 개발자 수 증가는 더 많은, 더 빠른 GPU에 대한 수요를 견인할 것이다.  GPU 용량의 상당 부분은 모델 개발 단계에서 개발자가 테스트하는 데 사용되며, 이러한 수요는 인원수에 따라 선형적으로 증가한다. 현재 GPU 부족 현상은 가까운 시일 내에 완화될 기미가 보이지 않는다.


AI 인프라의 높은 비용이 지속된다면, 신규 진입자가 주머니 사정이 넉넉한 기존 업체를 따라잡을 수 없는 해자가 만들어질까? 이 질문에 대한 답은 아직 알려지지 않았다. 현재로선 LLM 학습 비용이 해자처럼 보일 수 있지만, 알파카나 스테이블 디퓨전과 같은 오픈 소스 모델들은 이러한 시장이 아직 초기 단계에 있으며 빠르게 변화할 수 있음을 보여준다. 시간이 지남에 따라 새로운 AI 소프트웨어 스택 비용 구조(이전 게시물 참조)는 기존 소프트웨어 산업과 비슷해지기 시작할 수 있다. 역사적으로 이러한 변화는 빠른 혁신과 창업가들에게 많은 기회를 제공하는 활기찬 생태계로 이어져 왔기 때문에 궁극적으로는 좋은 일이 될 것이다.


keyword
작가의 이전글 탈산업화 경제 패러다임은 허구다
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari