brunch

You can make anything
by writing

C.S.Lewis

by 콤파스 Jul 01. 2023

빅테크 기업과 오픈소스 AI : 투명성과 안전성의 균형

AI 시장의 변화 - 돈이 되는 AI

오늘 AI 기술은 기술 공개(코드 공개) 주의 환경에서 눈부신 발전을 이루었다. 그러나 빅테크들의 경쟁 속에서 AI 기술 공개 정책이 언제까지 유지될까?


빅테크 기업과 오픈소스 AI



빅테크 기업에서는 누구나 자유롭게 이용할 수 있는 오픈소스(open-source)가 빅테크 AI 시장을 위협하고 있다는 의견이 분분하다. 최근 새로운 오픈소스 대형 언어모델이 공개되고 있는데, 이 모델들은 구글의 바드와 오픈 AI의 챗지피티와 경쟁한다. 빅테크 기업이 개발한 AI모델들과 유사한 수준의 성능을 가지고 있지만 무료로 사용할 수 있는 장점이 있다.


오픈소스는 여러 방면에서 장점이 있다. 언어 모델에 대한 접근성이 좋아지면 여러 응용이 가능하고 결함을 발견하기도 쉬워진다. 하지만 오픈소스 열풍은 불안정하다. 대부분의 오픈소스 모델은 빅테크 기업의 거대 모델을 기반으로 하기 때문이다. 대부분의 오픈소스 언어 모델은 메타 AI의 LLaMA를 기반으로 구축되었으며, 오픈소스 단체인 일루서AI가 개발한 언어 모델 또한 오픈 AI의 GPT-3에 기반한다. 빅테크 기업의 기술 공개가 오픈소스 생태계에서 여러 독자적인 모델 개발로 이어진 것이다.


오픈 AI는 경쟁을 우려해 기존의 공개 정책을 변경했다. 메타 또한 밥그릇 싸움에 휘말린다면 통제에 들어갈지도 모른다. 메타 AI의 대표 조엘 피노(Joelle Pineau)는 코드 공개에 대해 “솔직히 지금은 옳은 일을 하고 있다고 생각한다”라고 말하면서도 “향후 5년을 바라본다면 공개 정책을 계속 이어갈 수 있을까?  AI 기술이 너무 빠르게 발전하고 있기 때문에 우리도 어떤 입장을 취하게 될지 알 수 없다”라고 덧붙였다.  


코드 공개를 제한하는 추세가 이어진다면 오픈소스와 빅테크 기업의 AI 모델의 격차가 커지면서 AI 기술 혁신은 막대한 자금력을 가진 대형 AI 연구소들이 주도하게 될 것이다.


어떤 이들은 오픈소스가 원칙이 되어야 한다고 생각한다. AI 연구원인 야니크 킬셰(Yannic Kilcher)는 “모든 사람이 대화형 AI의 혜택을 누리고 소수 대기업의 손에서 벗어나게 하려는 전 세계 커뮤니티의 노력의 결과”이라고 평가했다. AI의 무료 사용 및 공개적 접근을 옹호하는 허깅페이스의 공동설립자 쥘리앵 쇼몽(Julien Chaumond)도 최근 자신의 트위터에 “오픈소스 AI를 지키기 위한 싸움을 절대 멈추지 않겠다”라는 게시물을 올렸다. 


오픈소스를 통해 이익을 얻는 집단도 있지만, 어느 입장이 되었든 오픈소스 언어모델의 대대적 출시로 전 세계 사람들이 이 기술을 사용할 수 있게 됐다. 또한 많은 사람이 새로운 도구를 개발하고 작용 원리를 탐구할 수 있도록 영감을 주고 있다. 



빅테크 기업 의존성 - GPU

그러나 대형 언어모델을 처음부터 학습시키는 것은 그것을 개선하거나 수정하는 것보다 어렵다. 모델의 규모가 커질수록 학습 과정이 더 자주 중단되고 재시작되는 등의 다양한 문제가 발생하기 때문에 대형 언어모델을 구축하려면 큰 비용이 발생한다. 대형 언어모델은 복수의 다양한 GPU에서 학습되어야 하는데 이 모든 하드웨어를 연결하는 작업이 꽤 복잡하다. 


일루서AI의 전무이사 겸 연구 책임자인 스텔라 바이더먼(Stella Biderman)은 오픈소스 대형 언어모델의 열풍이 계속될 것으로 내다봤다. 하지만 기본이 되는 기술을 발전시키기보다는 이미 학습된 몇 가지 모델을 확장하거나 조정하는 데 초점이 맞춰질 것이라고 주장한다. 실제로 대형 언어모델을 처음부터 학습시킨 곳은 극소수에 불과하다. 대부분의 오픈소스 모델은 메타 AI가 학습시킨 LLaMA를 기반으로 만들어졌고, 오픈소스 기술을 옹호하는 일루서AI 또한 오픈 AI의 GPT-3 모델에 기반한다.


오픈 AI는 GPT-3의 기술 전체를 공개하진 않았지만, 바이더먼과 동료들은 GPT-3 모델의 구축 방식에 대한 정보를 공유해 첫 오픈소스 모델을 학습시켰다. 클라우드 컴퓨팅 회사의 지원을 받아, 가장 큰 모델을 학습시키는 데 약 100일가량이 소요됐다고 한다. 이러한 학습 비용을 직접 감당했다면 약 40만 달러(약 5억 4000만 원) 정도가 들었을 것이라 한다. 이러한 막대한 학습 비용 때문에 사실 대규모 AI 모델의 학습 코드를 보유하고 있더라도 실제로 처음부터 학습(pre-training)시키는 것은 쉬운 문제가 아니다. 하이퍼파라미터 튜닝이나 모델 수정 등을 반복 실험해야 하는 연구 단계에서는 더 말할 것도 없다.



오픈소스의 장단점 - 투명성과 안전성

오픈소스는 많은 장점이 있지만, 강력한 AI모델이 대중적으로 사용될 시 다양한 부작용이 생길 수 있다. 허깅페이스의 수석 윤리 과학자인 마거릿 미첼은 생성 AI를 사용한 음란물 제작을 부정적 예시로 지적했다. 미첼은 “오픈소스에 대한 이상적인 생각은 좋지만, 책임을 위한 일종의 메커니즘을 마련하는 것도 필요하다”라고 강조했다. 메타 AI의 대표 조엘 피노 또한 대형 언어 모델이 잘못된 정보, 편견, 혐오 발언을 퍼뜨릴 위험성이 있기에 "투명성과 안정성 사이에서 균형을 잘 맞춰야 한다."라고 강조했다. 



 빅테크 기업의 AI 기술 비공개 전환

메타 AI의 피노는 “현재 수천 명의 개인을 대상으로 모델을 공개하고 있지만 문제가 커지거나 안전을 위협한다고 판단되면 기존 방식을 중단할 것이다. 그리고 비밀유지 계약을 체결한 신뢰성 높은 학계 협력기관으로 공개 범위를 제한하고, 설사 연구 목적이 있더라도 조건이 충족되지 않으면 모델을 사용하지 못하게 막을 것이다”라고 입장을 밝혔다. 


만약 이 상황이 현실이 된다면 오픈소스 생태계의 많은 모델이 메타 AI의 다음 버전을 사용하지 못하게 된다. LLaMA가 없어지면 알파카, 오픈 어시스턴트, 허깅챗 등과 같은 오픈소스 모델의 성능은 급격히 떨어질 것이다. 


오픈 AI도 기존의 공개 정책을 뒤집었다. 최근 오픈 AI는 챗GPT의 기반이 되는 대형 언어모델의 새로운 버전인 GPT-4를 발표하면서 기술 보고서에 다음과 같은 문장을 넣었다. “GPT-4와 같은 대형 언어모델의 경쟁적 환경과 안전성을 고려해, 이 보고서에는 아키텍처(모델의 크기가 포함됨), 하드웨어, 학습 컴퓨팅, 데이터 세트 구조, 학습 방법 등에 대한 자세한 내용은 포함하지 않는다” 


이러한 제한은 이제 오픈 AI가 구글 등과 경쟁하는 이익 창출 목적을 가진 회사임을 나타낸다. 동시에 회사의 기본적인 생각도 변화되었음을 의미한다. 오픈 AI는 단지 안전을 우선시한 결정이라고 말한다. 오픈 AI의 신뢰안전팀 책임자인 데이브 윌너(Dave Willner)는 “투명성이 나쁘다는 것은 아니다. 우리는 투명성과 안전성 양쪽에서 균형을 맞출 방법을 찾고 있다. AI 기술이 강력해지면서 이 부분에 대한 요구가 증가하고 있다”라고 말했다. 이어서 윌너는 “오늘날 AI 분야의 다양한 기준과 사고방식은 협업과 투명성에 가치를 두고 상호 협력적으로 개발을 진행하는 학술 연구 커뮤니티들을 통해 형성된 것이다. 그러나 AI 기술이 발전함에 따라 약간의 변화는 필요할지도 모른다”라고 말을 맺었다. 



개인적인 의견 - 돈이 되는 AI


이상하긴 했다. 맛집의 요리 레시피와 시험 필기노트마저 숨기는 세상 속에서 몇 년 동안 연구한 AI 기술은 논문과 코드로 모두 공개하니까. 물론 학습 코드를 숨기거나 학습 데이터셋을 제공하지 않는 경우는 종종 있어왔지만, 논문을 보고 학습코드를 재현하고 데이터셋을 구축한다면 누군가 몇 년 동안 연구해 온 AI 모델을 단기간에 구축할 수 있었다.


반도체 업계 특정 직군은 유사 업계로 이직을 막는 경우도 있을 만큼 기술 보안이 중요하다. 그 외 다른 업계에서도 기술 보안은 중요하며 일본의 어느 기업은 기술 보안을 위해 기술 문서를 모두 아날로그 서류로 보관한다고 할 정도이다. 


아무리 컴퓨터 사이언스 업계에서 오픈소스 생태계가 활발하다고 해도 조금은 의아한 부분이었다. 물론 조금 이해가 되는 부분은 성능이 좋은 AI 모델과 학습코드를 공개한다고 해도 이 기술만으로 좋은 비즈니스 모델을 만들 수 있는 것은 아니었다는 사실이다. 대부분의 연구용 AI 모델은 제한된 환경에서 좋은 성능을 내는 것이지, 실제 환경에 적용하기 위해서는 추가적인 학습 데이터와 다른 기술과의 융합이 필수적이기 때문이다. 즉, AI 모델 자체만으로는 돈을 벌 수 없었다는 이야기이다.


그런데 이제는 상황이 달라졌다. 대형 언어, 비전 모델이 등장하면서 공개된 AI모델을 약간만 수정해도 충분히 다양한 비즈니스에 곧바로 적용할 수 있을 여지가 생겼기 때문이다. 심지어 제한된 환경이 아닌 실제 환경에서도 꽤 좋은 성능을 보여준다.


전 세계 검색 서비스를 주름잡던 구글은 챗지피티에 긴장하기 시작했고, 글로벌 빅테크 기업들의 AI 전쟁이 시작되었다. 그동안의 AI 기술은 신기하긴 했지만 단순하고 반복성이 있는 업무를 대체하기 위해 사용되어 왔던 것에 반해 현재의 AI 기술은 의료, 법률 등의 전문영역을 포함한 다양한 곳에서 곧바로 활용될 수 있기 때문이다. 즉, AI 기술이 곧 돈이 될 것이 뻔한 상황이라는 것이다.


이러한 상황 속 빅테크 기업들은 AI 기술을 섣불리 공개하고 싶지는 않을 것이다. 이때 '안전성'이라는 좋은 핑계가 등장한 것이고 이 핑계를 명분 삼아 AI 기술의 비공개 전환이 가속화되고 있다. 물론 안전성이 필요 없다는 이야기는 아니다. 굉장히 중요한 문제임은 틀림없는 사실이다. 


물론, 빅테크 기업들이 즉시 모든 AI 기술을 비공개로 전환하지는 않겠지만, 핵심적이고 중요한 기술은 비공개할 가능성이 크다. 이러한 AI 시장의 변화 속에서 우리나라의 AI 기술은 어떻게 발전해 나갈지, 그리고 AI 연구자와 엔지니어들의 업무는 어떻게 변화해 나갈지에 대한 궁금증이 생긴다.



 

매거진의 이전글 AI는 인간의 협력자일까 경쟁자일까?

작품 선택

키워드 선택 0 / 3 0

댓글여부

afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari