brunch

You can make anything
by writing

C.S.Lewis

by 이재훈 Dec 09. 2024

12월, OpenAI가 선물을 준비했습니다


OpenAI가 연말을 맞아 "12 Days of OpenAI"라는 특별한 이벤트를 진행 중입니다. "12 days, 12 livestream, A bunch of new thing, big and small"이라는 슬로건 아래, 12월 5일(현지시간) 시작된 이번 이벤트는 첫날부터 큰 주목을 받았습니다. 오늘 레터에서는 첫째 날과 둘째 날에 공개된 주요 내용을 정리해 보려고 하는데요. 이후에 발표되는 소식들은 다음 주에 정리해서 보내드리도록 하겠습니다. 


Day 1, "200달러"


OpenAI는 이벤트 첫날부터 임팩트 있는 발표로 이목을 집중시켰습니다. 그동안 Preview 버전으로 제공되던 'o1' 모델이 정식 출시되었고, 이와 함께 월 200달러의 프리미엄 구독 서비스 'ChatGPT Pro'도 공개되었습니다. 이 요금제는 1년 간 유지한다고 가정했을 때 약 340만 원에 달하는 금액으로, 현존하는 AI 서비스 중 단연 최고 수준입니다. 


OpenAI가 이처럼 비싼 요금제를 내놓을 수 있었던 배경에는 기술력에 대한 강한 자신감이 뒷받침되어 있는데요. OpenAI에서 공개한 벤치마크 점수는 다음과 같습니다. 


벤치마크 결과 (출처 : OpenAI)


보시는 것처럼, o1 모델은 수학경시대회(AIME 2024)에서 83.3%, 코딩 대회(CodeForces)에서 89.0%의 정확도를 기록하며 이전 모델인 GPT-4o를 크게 앞섰습니다. 얼마 전 GPT-4o 버전으로 대학 수능 수학 영역을 풀어본 결과, 4등급(약 60점)을 받을 것으로 예측했는데요. o1 정식 모델이라면 1등급에 근접한 점수를 받을 수 있지 않을까 예상해 봅니다.


벤치마크 결과 (출처 : OpenAI)


특히 ChatGPT Pro 사용자들에게 제공되는 'o1 Pro Mode'는 기본 o1 모델보다 더 뛰어난 성능을 보여주었는데요. 이는 분명 전문가 수준에서 유의미한 가치를 제공해 줄 수 있을 것으로 기대됩니다. 다만, 기본 o1 모델도 이미 충분히 좋은 성능을 가지고 있기 때문에 일상적인 용도로 AI를 활용하는 일반 사용자들은 기존의 'ChatGPT Plus' 구독으로도 충분할 것 같습니다. 


이밖에 첫날 발표된 내용을 정리하면 다음과 같습니다.


1. o1 모델

 - 멀티모달 기능 지원

 - 응답 속도 50% 향상, 오류율 34% 감소

 - 간단한 질문에는 더욱 빠르게, 복잡한 문제는 더 깊이 생각하도록 개선


2. ChatGPT Pro

 - 모든 모델 무제한 사용

 - 고급 음성 모드 제공


3. 공통

 - 향후 API 버전 출시 

 - 웹 브라우징, 파일 업로드 등 새로운 도구 추가 예정

 - 개발자를 위한 구조화된 출력, 함수 호출, 이미지 인식 기능 추가 예정

  

Day 2, "강화 미세 조정"


이벤트 둘째 날은 연구 부문 수석 부사장인 마크 첸(Mark Chen)이 발표를 진행했습니다. 첫째 날 샘 알트만이 직접 나서서 o1 모델과 ChatGPT Pro라는 대형 업데이트를 발표했던 것과 달리, 이날은 상대적으로 비중이 작은 업데이트가 공개되었습니다.


하지만 비중이 작다고 해서 그 중요성까지 작은 것은 아니었는데요. 주요 내용은 강화 미세 조정(Reinforcement Fine-Tuning)의 확대로, 이 프로그램의 주요 특징은 다음과 같습니다. 


1. 개발자와 기계 학습 엔지이너들이 OpenAI 모델을 특정 도메인의 복잡한 작업에 맞게 미세 조정할 수 있습니다.

2. 개발자들이 모델에 작업을 입력하고 출력을 평가하여 모델의 행동을 정의할 수 있습니다. 모델은 피드백을 바탕으로 유사한 문제에 대한 추론 능력을 향상시킵니다.


이는 마치 알파고와 비슷합니다. 알파고가 바둑이라는 게임에 특화되어 최고수가 되었듯, OpenAI 모델을 활용해 특정 도메인의 전문가를 만들 수 있다는 의미입니다. 기본적으로 OpenAI의 모델이 가진 광범위한 지식을 토대로, 사용자가 원하는 특정 분야에 대한 집중적인 학습을 진행할 수 있습니다. 특히 모델이 제시한 답변에 대해 평가와 피드백을 제공하면, 이를 바탕으로 추론 능력을 향상시킬 수도 있습니다. 


중요한 점은 그 학습 방법이 간단하다는 것입니다. 강화 미세 조정 방법을 정리하면 다음과 같습니다. 


학습 데이터 예시 (출처 : OpenAI)


1. 학습 데이터셋 준비

 - JsonL 형식의 파일 사용


2. 검증 데이터 셋 준비

 - 학습 데이터와 동일한 형식

 - 학습 데이터와 겹치지 않는 새로운 데이터 사용


3. 평가 시스템 설정

 - 모델의 출력과 정답을 비교하여 0~1 사이의 점수 부여 (부분 점수 부여 가능)

 - 다양한 유형의 평가 시스템을 제공하며, 향후 사용자 정의 평가 시스템 지원 예정


4. 학습 실행 

 - 모델 선택 후 하이퍼파라미터 설정(기본값 제공)

 - 완료까지는 몇 시간에서 며칠까지 소요


여기서 주목할 점은 학습 데이터와 검증 데이터가 겹치지 않도록 준비했다는 것입니다. 예를 들어, 희귀 유전병 연구에서 학습에 사용된 유전자와 검증에 사용된 유전자가 겹치지 않도록 설계했습니다. 


기본 모델과 파인튜닝한 모델 간의 성능 비교 (출처 : OpenAI)


이러한 접근 방식은 AI가 단순히 증상과 유전자의 관계를 '암기'하는 수준을 넘어, 의학적 '추론' 과정을 학습하도록 했음을 보여줍니다. 이를 통해 AI는 기존에 알려진 사실을 답변하는 수준을 넘어, 처음 접하는 패턴에 대해서도 논리적인 추론을 할 수 있게 됩니다. 이러한 발전은 의료 분야를 비롯한 다양한 영역의 연구 개발에 큰 도움이 될 것으로 전망됩니다. 


이러한 사실을 반영하듯, 현재 이 기능은 제한적으로만 제공됩니다. 온라인 양식으로 신청한 사용자 중 선별된 인원만 이용할 수 있으며, 정식 서비스는 2025년 초 출시될 예정입니다. 


Day 3~12 전망


많은 전문가들은 이번 이벤트에서 그동안 비공개로 테스트되던 비디오 생성 AI 'SORA'를 공개할 것이라 전망하고 있습니다. 또한, 샘 알트만이 지속적으로 AI Agent의 중요성을 강조해 온 만큼, AI Agent 관련 기술을 엿볼 수 있는 데모 영상이 공개될 가능성도 있습니다.  


음성 모드 버튼이 눈송이로 바뀐 모습 (출처 : btibor91 스레드)


흥미로운 점은 12개의 발표 중 하나가 스포 됐다는 것입니다. 일부 사용자들이 ChatGPT 음성 모드 버튼이 눈송이로 바뀌는 코드를 발견하면서, 산타의 목소리를 구현한 이른바 'SantaGPT'가 출시될 것이라는 소문이 퍼진 것인데요. 샘 알트만이 이번 이벤트를 언급하면서 '메리 크리스마스'라고 인사한 것을 보면, 소문이 사실인 것으로 보입니다. 개인적으로 산타 목소리가 어떤 식으로 구현되었을지 궁금하네요 :)


지금까지 12개의 발표 중 2개를 살펴보았는데요. 단 2개의 발표만으로도 OpenAI의 힘을 느낄 수 있었습니다. 앞으로 이어질 발표가 점점 더 궁금해지는데 가운데, 테크잇슈는 모든 발표가 완료되면 종합적으로 정리하여 레터로 전달해 드리겠습니다. 



*위 글은 '테크잇슈' 뉴스레터에 실린 글입니다.

테크잇슈는 IT 커뮤니케이터가 만드는 쉽고 재밌는 IT 트렌드 레터입니다.

IT 이슈 모음과 위와 같은 칼럼을 전달드리고 있으니, 관심 있는 분들은 구독 부탁드립니다 :)

테크잇슈 구독하러 가기

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari