*이 글은 24.04.27 작성된 글로 뒤늦게 브런치에 옮겨왔습니다.
AI 가 캐리하고 있는 시장입니다.
제품과 서비스에는 AI가 빠진 곳이 없습니다.
AI만 달면 투자가 들어옵니다.
어느 순간 유튜브와 여러 콘텐츠를 보며,
저 역시 무비판적인 AI 추종자가 되는 것 같아
이 시장에 대해서 한번 파보고 싶었습니다.
과연 그렇게 장밋빛 시장인지 말이죠.
과정에서 알게 된 몇 가지 사실에 기반해,
이 시장이 이미 피크를 지난 것일 수 있음을 말해보려고 합니다.
인공지능 서비스, 애플리케이션에 대해 먼저 이야기하고 싶습니다.
이 열풍에 가장 주목을 받은 것은
누가 뭐래도 OPEN AI, 마이크로소프트입니다.
본질은 이렇습니다.
현시점 최고의 LLM을 보유했다는 것
그래서 이들이 산업을 이끈다는 것
현재 OPEN AI는 철저히 폐쇄 전략을 취하죠.
연구 성과를 보여주지 않고,
모델의 소스코드를 공개하지 않습니다.
“기술 자체가 경쟁력이다.” 입장이죠.
과연 AI 모델 자체가 경쟁력일 수 있을까요?
이에 완벽히 반대 전략을 취하는 기업이 있습니다.
메타입니다.
모두가 자유롭게 사용할 수 있는 라마 3
메타는 얼마 전 라마 3을 또 한 번 오픈소스로 공개했죠.
누구나, 무료로, 다운로드해서 쓰면 됩니다.
심지어 성능 또한 괜찮습니다.
궁금한 사람들은 챗봇으로 쓸 수도 있습니다.
메타는 철저히 AI 무료화 전략을 취하죠.
비영리기관, 대중과 함께 모델을 발전시키는 전략입니다.
사실 이건 껍데기일 것이고,
경쟁에 대한 새로운 전략으로 이해됩니다.
기술 그 자체를 파는 것이 아니라,
기술 위에 올라갈 서비스가 더 가치 있다는 것.
과거 iOS vs. 안드로이드로 보자면,
안드로이드의 입장을 취하는 것이죠.
OS 기술 자체로 돈을 만드는 것이 아니라,
그 위에 올라갈 서비스에서 돈을 만든다는 것입니다.
라마 3을 기반으로
개인들, 비영리기관, 학자는 발전시킬 것입니다.
더 좋은 성능의 모델이
무료로 더 등장하게 되겠죠.
모델을 돈 받고 파는 것은
조금만 더 지나면 크게 가치가 없습니다.
이미, 크게 가치가 없죠.
무료로 사용가능한 모델에 대해,
아래 Techopedia 글을 공유합니다.
생각보다 풀린 기술은 많고,
앞으로 풀릴 좋은 기술도 많습니다.
https://www.techopedia.com/kr/6-best-open-source-llms-to-watch-out-for-in-2024
기술은 결국 모두의 원자재가 됩니다.
현재 대규모 언어 모델은
파라미터가 커지다 보니 갑자기 등장했습니다.
쉽게 말하자면,
지식을 엄청나게 많이 주입하니,
어느 시점에 갑자기 똑똑해졌다는 것이죠.
인공지능 업계의 숙제는
이 원리를 정확하게 모른다는 것입니다.
왜 하필 특정 파라미터를 넘어가면
똑똑해지는 것인지 아직 모릅니다.
발전과 영향에도 불구하고 LLM의 기본 원칙은 아직 잘 탐구되지 않았습니다.
첫째로, 그것은 왜 LLM에서 새로운 능력이 발생하는지 알 수 없습니다.
A Survey of Large Language Models 논문 중
우리가 기대하는 것은 아마도 AGI 입니다.
범용 인공지능이라고 해석하기보다,
진짜 인간 같은 인공지능이라고 하겠습니다.
이것의 등장을 위해서
대부분이 취하고 있는 가설은,
“현재까지 사이즈를 키우니 똑똑해졌으니,
더 심하게 키우면 더 똑똑해질 것이다.”
이 가설의 증명을 위해서는
정말로 엄청난 양의 칩이 필요합니다.
샘 울트먼이 중동 자본을 찾은 이유가 있죠.
명확하게 등장한다는 가정이 없는데,
이 엄청난 비용을 쓸 기업이 없을 것입니다.
종래에는 가정을 바꿀 가능성이 있습니다.
“현재까지 사이즈를 키우니 똑똑해졌으니,
원리를 알면 똑똑하게 만들 수 있을 것이다.”
칩을 더 산다고,
데이터를 더 모은다고,
똑똑한 인공지능이 나오는 것이 아닐 수 있습니다.
이제는 더 이상 비용만이 경쟁이 아니죠.
앞서 말한 것의 연장선인데,
이제 모델을 키우는 게 능사가 아닙니다.
데이터를 특화해서 줍니다.
가령 제조 AI는 제조업 정보만,
의료 AI는 의료 정보만 학습시킵니다.
아인슈타인을 만들려던 방향이,
동네 의사 혹은 우리 회사 직원을
만드는 방향으로 바뀐다는 것이죠.
여러 공룡들이
최고의 거대 모델을 만들겠다던 시대는
이미 다른 시선으로 향하고 있습니다.
자원을 늘리는 방향이 아니라,
지금의 자원으로 효율적 사용을 하는 것이죠.
이런 생각이 있을 수 있습니다.
“많은 업체가 결국 만들기만 하면,
결국 수요는 늘어나는 것 아닐까?”
여기서 중요한 점은 소규모 특화 AI는
자원을 가둬 두고 개발을 시작할 수 있다는 것입니다.
접근 방식이 다르죠.
“똑똑함이 나올 때까지 늘려보자”가 아니라.
“이 안에서 똑똑함을 만들어보자”입니다.
수요와 데이터셋을 정해 놓고,
프로젝트에 착수하게 되는 것입니다.
그리고 본인들이 칩을 사진 않을 것이고,
클라우드 상에서 올리게 될 텐데,
굉장히 점진적으로 캐파를 늘릴 것입니다.
성능이 상승할 때까지,
점진적으로 조금씩 사용량을 늘린다는 것이죠.
때문에 주요 클라우드 공급자들이 (MS, AWS…)
이들의 수요 때문에,
급격하게 칩 구매를 서두를 가능성은 적습니다.
더불어,
모델 자체를 아예 서로 공유하도록,
클라우드에 올려놓을 가능성도 있습니다.
쉽게 말해,
“만들 생각 마시고,
이거 고대로 가져가 조금 바꿔 쓰세요.”
어차피 특화이기 때문이죠.
분화되고, 가벼워집니다.
이상이 작금의 시대를
의도적으로 비판적으로 바라본 시각입니다.
사실 실제로도 저는 AI 추가 성장에 대해,
너무나 빠르게 거품을 맞이한 것 같다는 느낌이 있습니다.
당장이라도 AGI가 등장할 것 같던 세상이,
점점 더 조용해지지 않을까 생각하고 있습니다.
하지만 또 모릅니다.
어떤 미친 자본이
사이즈를 극도로 올려놨더니
진짜로 AGI가 급하게 나와버릴 수도요.
글이 마음에 들었다면 라이킷, 계속 읽고 싶으시다면 구독 부탁드립니다.