brunch

You can make anything
by writing

C.S.Lewis

by 미래관찰자 Mar 21. 2021

시작하는 AI 스타트업의 설자리는?

이번 주에 읽은 기사들 중 기억에 남았던 것 중 하나. 


지금 일반적인 Chip들이 반도체 안에서 전자의 흐름을 제어해서 필요한 연산을 수행하는 반면에, 기사 안의 Lightmatter(MIT 출신 founder들의 스타트업으로 GV가 투자함)는 광자를 활용하여 일부 연산을 수행한다고 한다. (it performed calculations by splitting and mixing beams of light within tiny channels, measuring just nanometers라고 적혀있는데,,, 디테일까지 이해는 불가.. 어느 분이 설명 좀...) 그리고, 메모리 등 기존의 Chip 메커니즘이 조화를 이뤄서 하나의 제품을 구성한다.


회사의 주장으로는 성능면에서 NVIDA A100 보다 무려 1.5~10배 빠르고, 또한 제품군 중 Envise라는 것을 통해 유명한 자연어 모델인 BERT를 실행하면 NVIDIA 칩보다 5배 빠르다고 한다. 게다가 놀라운 것은 이런 작업을 수행하면서, NVIDIA의 칩보다 전력은 무려 1/6만 소비한다고 한다. (이 신박한 물건을 올해 말 shipping 목표한다고..ㄷㄷㄷ) 


그런데, 기사를 읽으며 이런 신기방기한 컨셉의 기술/제품과 성능도 인상적이었지만, 아래 내용이 나에게는 훨씬 더 생각할 거리를 안겨주었다.


Recent data from OpenAI shows that the amount of computer power needed to do landmark AI research has doubled roughly every 3.4 months—increasing 300,000 times between 2012 and 2018.


위 기사 내용 data의 원문은 https://openai.com/blog/ai-and-compute/ 이것인 것 같으니, 참고하시면 된다. 그 원문 속에 그래프도 감을 잡으시기 위해 가져와봄. 


이 기사의 Ligthmatter도 그렇고, 카카오벤처스의 자랑스러운 패밀리, Rebellions도 그렇고 더 적은 전력을 소모하며 더욱 빠르게 더욱 많은 연산을 가능하게 하는 것이 AI Chip을 만드는 스타트업들의 성능 척도 중 하나이기 때문에, 결국 그러한 미션을 달성해낸다면 이런 문제를 해소하는 방향의 기술과 제품을 만들어 낼 것이다. 그럼에도 불구하고 이런 흐름과 현상이 자칫, AI를 통해서 세상의 어떤 문제를 풀고자 하는 시도를 선뜻 시작해보지도 못하는 환경으로 변화시키는 것은 아닐지 걱정된다. 왜냐하면 'more computing power = 결국 돈' 이기 때문이다. 단적인 예로 요 근래 가장 뜨거웠던 GPT-3(아래 용어 설명 참고)의 1회 학습비용이 50~150억 원 수준이라는 기사가 떠오른다. 위에서 언급한 BERT 같은 경우는 1회에 800만 원이라고 하니 GPT-3의 학습비용은 극단적 사례일 수도 있으나, 반대로 GPT-3보다 6배 parameter를 가진다는 구글의 Switch Transformer도 최근에 발표되었으니, GPT-3만의 이슈라고 보기는 어려울 것 같다.


이런 우려의 시작은 모바일 게임 영역에서의 지난 경험에서 비롯된다. 2011~14년 즈음의 기억인데, 당시는 대형 게임사에서 성공적인 게임을 만들고(특히 MMORPG) 운영했었던 훌륭한 이력의 팀이 10명 이내 규모로 창업을 해서 시드 투자로 3~5억 원을 받는 시기였다. 지금으로 생각하면 그 정도 투자금이라면 게임 프로토타입은 고사하고, 팀 짜고, 사무실 구하고, 장비 사고, 개발 환경 설정하고, 언리얼 엔진 사고 나면 끝날 정도의 자금이려나? 싶을 수도 있다. 하지만 당시에는 저런 규모의 자금으로 게임을 완성하는 것뿐 아니라 자체 서비스를 런칭하는 경우도 있었고, 당연히 그중에서 좋은 성과를 내는 사례도 종종 있었다.


예를 들면, '헬로히어로'를 만들었던 '핀콘' (카카오벤처스의 8번째 포트폴리오)이 그런 대표적인 사례였고, 그 외에도 카카오 게임하기를 통해 데뷔하고 대박을 쳤던 수많은 게임사들도 그런 경우가 태반이었다. 당연하게도 이런 치열한 경쟁이 이루어지기 때문에 앱스토어의 게임 순위 top 10에 스테디셀러로 장기 집권하는 일도 많지 않았다. 


오늘 기준 앱스토어 게임 순위를 살펴보았다. 

더 이상 그 시절의 스타트업도 없고, Top 10안의 게임들은 쉽게 변하지도 않는다.


모두들 아시는 이유이지만, 하나의 (모바일)게임을 만들기 위해 드는 제작비도 수십~수백억 원에 달하고, 사전 예약 마케팅부터 시작하여 다양한 형태의 광고들까지 곁들이면 그 비용 또한 수십~수백억 원에 달하는 세상이다. 거기에 좋은 인력을 영입하고 유지하기 위해 드는 비용은 비교할 수 없이 높아졌다는 것이 '화룡점정'이다. 그러다 보니 예전과 같이 시드 투자받은 스타트업이 그 투자금으로 의미 있는 성적을 내는 게임을 만드는 것은 바늘구멍 들어가기인 상황이다. 자연스럽게, 우리와 같은 VC들도 모바일 게임 스타트업에 투자를 하는 것이 힘들어질 수밖에 없다.


다시 한번 종과 횡의 법칙(https://brunch.co.kr/@jun-kim/3)을 생각해보면, 지금은 모바일 게임에 있어서 횡의 시대와 다름없다. 그러다 보니, 이 시기에 시장에 뛰어들기 위해서는 극도로 차별화된 어떤 비기가 있지 않은 이상 참가비가 종의 시대 대비 천문학적으로 많이 들 수밖에 없다.


마찬가지로 AI도 횡의 시대에 이미 접어들었기 때문에, 위에 AI 학습비용의 사례에서 봤었지만 참가비가 예전과 같을 수 없다. (참가비는 학습비용뿐만이 아니다. 인재들의 인건비가 하늘을 뚫은 지 오래다) 그렇다고 세상이 AI를 활용한 무엇으로 모두 다 변화하고 그것을 통해 대부분의 문제들이 풀리고 있는데, 손 놓고 공룡들의 싸움을 뒷짐 지고 구경만 해야 하는 것인가? 



KV 패밀리 '리턴제로'에서 배우는 좋은 접근법

많은 스타트업들이 여전히 AI something을 외치며 창업하고 있기에, 이런 어려운 상황을 극복하기 위한 다양한 접근들을 할 것이다. (말은 쉽지만 실행은 어려운) 아주 좁고 깊은 영역의 문제를 포착하는 것으로 시작할 수도 있을 것이고, 범용적인 기술일지언정 그 위에 기가 막히게 만족감을 주는 UX를 제공할 수 있도록 포장할 수도 있을 것이고. 


통화 녹음을 자체 ASR(Automatic Speech Recognition) 엔진으로 카카오톡 대화와 같은 형태로 만들어 주는 비토를 서비스하고 있는 리턴제로는 이런 상황을 (내가 이해하기에는) 아래와 같이 풀고 있다. 대표님은 이런 루프를 AI 플라이휠이라고 칭하며 강조하시던데. 


우선, 사용자들의 려운 부분을 긁어주는 서비스를 베타 형태로 출시한다. 많은 준비를 하고 출시했지만, 아직은 그 성능에서 아쉬운 부분들도 많이 존재한다. 그럼에도 불구하고 워낙 가려웠고 대안도 없기에 다소 불편을 감소하고 라도 사용하는 고객들이 생긴다. 그리고 이들은 꾸준히 데이터를 생성한다. 


이렇게 생성되고 축적된 데이터들은 자체 ASR엔진을 학습시키며 성능을 점진적으로 개선한다. 개선된 성능에 사용자의 만족도는 점점 높아지고, 충성 고객들이 생성해내는 데이터들이 계속 많아진다. 또한, 사용자의 다양성이 높아지며 데이터의 커버리지 또한 넓어져서 데이터셋의 양적, 질적 가치가 모두 점차 높아진다. 그리고 이런 데이터셋의 가치는 엔진의 성능과 범용성의 제고로 다시 이어진다.


물론 이런 선순환이 일어날 수 있는 밑바탕에는 장안의 최고 선수들이 모인 뛰어난 팀이 쏟아지는 데이터들을 받아내며 학습시킬 수 있고, 또한 적절한 순간에서의 투자 유치(카카오벤처스는 시드 투자와 그다음 라운드에 참여하며 2번 투자)가 함께 있었기 때문이기도 한 것 같다.


아무튼, 공룡들 역시도 학습을 위해서는 대량의 데이터가 필요하고, 단시일 내에 그런 대규모 데이터셋을 확보하기 위해서는 그들에게도 부담스러운 투자가 수반되어야 한다. 리턴제로는 비토를 통해 ASR 영역에서 의미 있는 데이터를 차근차근 확보하며, 비록 공룡들 대비 학습 비용을 투입할 수 있는 지갑은 얇디얇을지언정 어느샌가 그 데이터셋 자체로 해자를 만들어내는 플레이를 훌륭히 해내고 있는 것이다.

(항상, 투자했었던 포트폴리오 회사와 창업자분들께 많은 가르침을 얻는데, 리턴제로 역시 대표적으로 그런 사례)



하나의 사례일 뿐이고, AI를 통해 세상의 문제를 풀겠다고 호기롭게 칼을 뽑으시는 창업자분들은 또한 그분들만의 접근법들이 있을 것이라고 믿는다. 그런 많은 시도들이 의미 있게 작용하면서, 필요한 미래를 앞당기는 주인공이 공룡들이 아니라 그분들이 되기를 간절히 기원한다.


- 끝 -




Rebellions: https://rebellions.ai/

Lightmatter: https://lightmatter.co/

VITO: https://www.vitoapp.io/



<용어설명> GPT-3


OpenAI에서 개발한 인공지능 모델이다. GPT(Generation Pre-trained Transformer)-3는 딥러닝을 이용해 사람이 사용하는 텍스트를 만들어내는 AI 모델로, ‘-3’에서 알 수 있듯이 3번째 버전이다. 총 1750억개의 변수를 보유하고 있다. 이 변수는 2020년 5월 도입된 GPT-2보다 100배 이상 많다. 반년도 안돼 변수를 두배 이상 늘린 셈이다. GPT-3는 언어 문제풀이, 글짓기, 사칙연산, 번역, 주문에 따른 간단한 웹 코딩 등으로 알려져 있다. GPT-3로 생성된 문장은 사람이 작성한 것과 구별하기 힘든 것으로 전해진다.


출처 : http://it.chosun.com/site/data/html_dir/2020/10/21/2020102102478.html

작가의 이전글 개똥철학1: 종과 횡의 법칙(3)
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari