brunch

You can make anything
by writing

C.S.Lewis

by 김준석 May 20. 2024

Weekly news on LLM - 5월 셋째주


제목: 오픈AI, 새 AI모델 GPT-4o 출시… "인간처럼 보고 듣고 말한다"

요약: 13일(현지 시간) 오픈AI는 온라인 신제품 발표행사를 통해 최신 LLM GPT-4o를 공개했다. 새 모델의 ‘o’는 모든 것이라는 ‘옴니’(omni)를 의미한다. ‘GPT-4o’는 주로 텍스트를 통해 대화할 수 있었던 기존 모델과 달리 이용자와 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있다. 음성의 ‘말투’도 다양하다. GPT-4o의 응답 시간은 최소 232밀리초, 평균 320밀리초로, 인간의 응답시간과 비슷하다고 오픈AI는 설명했다. 이전 모델인 GPT-3.5의 응답 시간은 평균 2.8초, GPT-4는 5.4초였다. 오픈AI는 수학·물리학·법학·윤리학 등 57개 과목을 테스트하는 다중언어작업이해에서 GPT-4o가 88.7%를 기록했다고 밝혔다. GPT-4 터보의 86.5%와 구글 제미나이 울트라의 83.7%를 넘어서는 수준이다. GPT-4o는 AI비서와 남성이 사랑에 빠지는 영화 ‘HER’을 연상케 한다. 샘 올트먼 CEO는 지난 10일 자신의 X에 이날 발표를 예고하며 ‘her’라고 적기도 했다. ‘GPT-4o’가 영화를 현실로 만들어주고 있다는 것을 의미하는 것으로 보인다.

https://biz.chosun.com/it-science/ict/2024/05/14/YIKKIH3ZBBDWNAQOYYPVXNQGYA/?utm_source=naver&utm_medium=original&utm_campaign=biz


제목: 알트먼이 GPT-4o를 "마법 같다"고 말한 이유는

요약: 샘 알트먼 오픈AI CEO가 인공지능(AI) 음성 비서 'GPT-4o'가 "마법 같다"라고 밝힌 이유를 공개했다. 음성 비서를 사용해보니 "놀라울 정도로 멋지게" 업무를 도울 수 있다는 것을 실감했다는 설명이다. 그가 시도한 것은 실제 업무 중 음성 비서를 작동 중인 휴대폰을 책상 옆에 올려놓고, 필요할 때마다 질문하고 답하는 방식이었다. "일반적으로는 작업을 하던 중 일을 멈추고 탭을 전환해 구글을 검색하거나 웹 사이트 이곳저곳을 뒤져야 한다"라며 "하지만 음성 비서를 사용하면 일을 계속하며 그냥 물어보기만 해도 답이 돌아왔다"라고 밝혔다. "컴퓨터에서 보던 것처럼 즉각적인 반응을 보여주는 것은 놀라울 정도로 멋진 일"이라는 말이다. 또 이번 개발은 텍스트와 이미지, 음성 모델 등 "새로운 기능을 한꺼번에 잠금 해제하는 말도 안 되는 작업"이라고도 했다.

https://www.aitimes.com/news/articleView.html?idxno=159774


제목: 'GPT-4o' 등장에 폭발적 반응..."AGI의 시작 vs 쇼에 불과"

요약: 오픈AI의 새로운 모델 'GPT-4o'가 출시된지 반나절 만에 폭발적인 반응이 이어지고 있다. 일부는 인공일반지능(AGI)이 시작됐다고 극찬했지만, 일부는 기능 발전은 없는 '잘 짜인 쇼'에 불과하다는 반응이다. 우선 인간과 흡사한 반응을 보인다는 점에는 모두가 동의하는 분위기다. 시연 영상을 통해 드러난 새 모델은 실제 인간과 구분되지 않을 정도로 섬세하고 적절한 반응을 보이고 있다. 실제 공개된 16개의 영상에서 GPT-4o는 그동안 공개됐던 챗봇과는 다른 양상을 보였다. 예를 들어 한 오픈AI 직원이 오늘 행사가 열리며 주제가 모델에 대해 것이라고 말하자, 모델은 여성의 목소리로 수줍은 듯 “그 발표가 나에 관한 것이라고요? 글쎄요, 당신 때문에 난 곤경에 처하게 됐어요… 음, 사실 자리에 참석하지는 못 하지만, 이해는 되실 거에요”라고 답했다.또 휴대폰 카메라로 상대방을 인식한 뒤 패션 센스를 평가하고, 반려견이 등장하자 이름을 묻고 호들갑스럽게 웃으며 개 이름을 부른 뒤 인간에게 털을 쓰다듬어달라고 요구하는 모습도 공개됐다. 두대의 휴대폰을 나란히 두고, 모델이 특정 주제에 대해 토론하는 모습도 나왔다. 중간에 사람이 개입하자, 모델들은 하던 말을 멈추고 이를 경청하고 대응하기도 했다.이 밖에 다른 영상에서는 '아재 개그'를 비웃고, 스페인어를 실시간으로 변역하고, 자장가를 불러 주기도 했다. 수학 문제를 카메라로 읽어내고, 풀이 과정을 상세하게 소개하는 장면에서도 많은 사람이 강한 인상을 받은 것으로 나타났다. 수학 문제 풀이는 모델의 추론 능력을 보여주는 것으로, 이미 'gpt2-챗봇' 공개 시에도 기존 GPT-4보다 진보했다는 예로 소개됐다. 

그러나, 저널리스트이자 작가인 제임스 빈센트는 "마케팅 방법으로는 교묘했지만, 이는 기술 도약이 아니며 가장무도회에 가깝다"라고 지적했다. 시라크 데카트 가트너 부사장은 "약간 실망스러웠다. 이는 3개월 전에 본 구글 '제미나이' 데모 영상과 흡사하다"라고 말했다. 물론 이는 영상으로 확인한 점에 대한 반응으로, 추후 모델이 실제로 공개되면 반응은 구체화될 가능성이 다분하다. 또 찬반에 관계없이 오픈AI가 GPT-4o로 초반 시선끌기에 충분히 성공했다는 분석도 나왔다.

https://www.aitimes.com/news/articleView.html?idxno=159635


제목: 구글의 반격 "AI 검색 전격 도입"...AI 에이전트·비디오 모델도 공개 

요약: 구글이 검색에 생성 인공지능(AI)을 전격 도입한다. 또 'AI 에이전트'의 기반이 될 AI 어시스턴트와 1분짜리 영상을 생성하는 비디오 모델도 공개했다. 이 외에도 개선된 '제미나이' 경량 모델을 출시하고, 차세대 AI 칩을 선보이는 등 본격적인 '제미나이 시대'를 예고했다. 데미스 허사비스 구글 딥마인드 CEO는 프로젝트 아스트라가 단순한 디지털 비서가 아닌 "AI 에이전트를 구축하는 과정"이라고 설명했다. 공개된 2분짜리 영상에는 휴대폰 카메라로 주변 상황을 정확하게 파악하고 기억해 음성으로 관련 상황과 정보를 전달하는 AI 비서의 모습이 담겨 있다. 올해 후반에 제미나이 앱 및 웹 등으로 출시할 예정이다. 허사비스 CEO는 최신 모델인 제미나이 1.5 플래시에 대해서는 "1.5 프로보다 가볍지만, 방대한 양의 정보에 대한 다중 모드 추론 능력이 뛰어나고 크기에 비해 인상적인 품질을 제공한다"라고 소개했다. 매개변수 등 구체적인 사양을 공개하지는 않았으나, API에서 제공되는 가장 빠른 제미나이 모델로 비용 효율적으로 서비스를 제공하고 100만개의 토큰 컨텍스트 창을 제공한다고 밝혔다. 또 1.5 프로를 개선, 컨텍스트 창을 200만 토큰으로 확장하고, 이제부터는 비디오와 오디오 업로드를 통한 추론이 가능하다고 설명했다. 이는 수천페이지의 텍스트나 1시간 이상의 비디오 분석, 요약이 가능한 크기다.

https://www.aitimes.com/news/articleView.html?idxno=159673


제목: 알트먼 축출했던 수츠케버, 오픈AI 떠났다

요약: 지난해 샘 알트먼 오픈AI CEO 축출 사태를 주도한 일리야 수츠케버 오픈AI 수석과학자가 결국 회사를 떠났다. 수츠케버는 “거의 10년을 지난 뒤 회사를 떠나기로 했다”라며 "오픈AI의 성장 궤적은 기적적이었으며, 회사가 안전하고 유익한 AI를 구축할 것이라고 확신한다"라고 밝혔다. 또 “개인적인 프로젝트를 진행할 것"이라며 "매우 의미 있는 프로젝트로, 적절한 시기에 자세한 내용을 공유하겠다”라고 덧붙였다. 수츠케버는 오픈AI 설립 멤버 중 하나이자 수석 과학자로, 특히 오픈AI의 AGI 개발 과정에 큰 역할을 한 인물이다. 그러나 지난해 여름부터 알트먼 CEO와 AI 안전 정책에 대해 충돌을 일으킨 것으로 알려졌다. 특히 지난 11월에는 전 이사회 일부 구성원과 함께 알트먼을 몰아내는 데 결정적인 역할을 했다. 오픈AI는 수츠케버 후임으로 연구 이사인 야쿠브 파초키를 임명했다. 알트먼 CEO는 “야쿠브도 우리 세대의 가장 위대한 정신 중 하나다. 나는 그가 여기서 지휘봉을 잡게 되어 매우 기쁘다"라며 "그는 우리의 가장 중요한 프로젝트를 다수 진행했으며, AGI가 모든 사람에게 혜택을 제공한다는 우리의 사명을 향해 신속하고 안전한 진전을 이루도록 우리를 이끌 것이라고 확신한다”라고 밝혔다. 오픈AI는 파초키가 수츠케버가 이끌던 초정렬 팀도 맡을지 여부는 밝히지 않았다. AGI 출연에 대비한 안전책을 만드는 이 팀은 지난해 7월 수츠케버 주도로 구성됐으며, 이 곳에서 근무하던 다른 직원도 최근 불만을 품고 회사를 떠난 것으로 밝혀졌다.

https://www.aitimes.com/news/articleView.html?idxno=159674


제목: 엔비디아, 구글 딥마인드와 협력해 LLM 혁신 추진

요약: 엔비디아는 지난 14일 열린 구글 연례 개발자 콘퍼런스인 ‘구글 I/O 2024’에서 3가지 새로운 협업 내용을 공개했다고 밝혔다. 우선, 엔비디아는 구글의 ‘젬마 2’와 ‘팔리젬마’’를 최적화하기 위해 텐서RT-LLM을 사용하고 있다.

젬마 2와 팔리젬마는 엔비디아의 NIM 추론 마이크로서비스와 함께 제공된다. 두 모델에 대한 NIM 지원은 팔리젬마를 시작으로 API 카탈로그에서 사용할 수 있으며, 곧 엔비디아 NGC와 깃허브에서 컨테이너로 출시될 예정이다.

데이터 과학자를 위한 개발자 플랫폼인 구글 코랩에서는 오픈소스 GPU 데이터 프레임 라이브러리인 ‘래피즈 cuDF’가 기본으로 지원된다. 구글 코랩 사용자들은 코드 변경 없이 단 몇 초 만에 엔비디아 L4 텐서 코어 GPU를 사용해 판다스 기반 파이썬 워크플로우를 최대 50배까지 가속화할 수 있다. 이를 통해 개발자는 탐색적 분석과 생산 데이터 파이프라인의 속도를 높일 수 있다. 판다스는 데이터 규모가 커질수록 애플리케이션에 문제가 발생한다. 래피즈 cuDF는 GPU에서 판다스 코드를 원활하게 가속하고, 그렇지 않은 경우 CPU-판다스로 되돌아가 이 문제를 해결하도록 설계됐다. 엔비디아와 구글은 엔비디아 RTX 그래픽을 사용해 AI PC를 활용하는 파이어베이스 젠킷에 대한 협업도 발표했다. 앞으로 개발자가 새로운 젬마 모델 제품군을 비롯한 생성형 AI 모델을 웹과 모바일 애플리케이션에 쉽게 통합해 맞춤형 콘텐츠, 시맨틱 검색, 문의에 대한 답변을 제공할 수 있을 전망이다.

http://www.itdaily.kr/news/articleView.html?idxno=223226


제목: AWS “AI 시대 ‘마법같은 여정’ 제시할 것” [AWS 서밋 서울 2024]

요약: 기업이 생성형 AI에 좀 더 쉽게 접근할 수 있게 돕는 AWS의 생성형 AI 스택은 크게 파운데이션 모델의 훈련 및 추론을 위한 ‘인프라’, 생성형 AI 애플리케이션을 구축하고 확장하는 데 필요한 모델을 제공하는 ‘플랫폼’, 모델을 활용해 구축된 ‘애플리케이션’ 등 세 개 계층으로 구성된다. 인프라 측면에서 AWS는 엔비디아와의 전략적 협력을 확대해 AWS 클라우드에서 H100 GPU 기반 인스턴스를 제공하고 있고, GB200 2만개로 구성된 프로젝트 세이바를 통해 414엑사플롭스 성능의 AI 슈퍼컴퓨터를 구축하고 있다. 또한 ‘AWS 트레이니움이나’’ AWS 인퍼런시아’ 등의 자체 가속기는 서비스 비용을 절감하고 성능과 에너지 효율성을 높이고 있다고 소개했다. 다양한 사용 사례를 하나의 모델로 모두 만족시킬 수는 없는 만큼, AWS는 ‘아마존 배드록(Bedrock)’에서 다양한 파운데이션 모델을 고객에 제공하고 있다. 또한 다양한 사용 사례에서 고객이 최적의 모델을 선택할 수 있는 평가 모델을 제공하고 있으며, 모든 모델에 일관적인 정책을 적용하고 안전하게 활용할 수 있게 돕는 ‘가드레일’ 기능도 제공하고 있다고 밝혔다. 이 외에도 기업의 데이터 활용 측면에서는 기존의 S3 서비스 등을 활용할 수도 있고, 베드록의 미세조정, RAG등의 기능을 활용해 기업의 자체 데이터를 이용해 비즈니스 관련 애플리케이션을 안전하게 구축할 수 있다고 소개했다. 특히 베드록에서 고객 데이터는 파운데이션 모델 훈련에 사용되지 않고 암호화되는 등 주요 개인정보 관련 규제를 충족시킨다고 덧붙였다.

https://it.chosun.com/news/articleView.html?idxno=2023092115774

작가의 이전글 Weekly news on LLM - 5월 둘째주
작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari