brunch

AI 학습, 사전학습, 파인튜닝의 차이

같은 학습이어도 다 의미가 다르다

by ASH


1. 학습(training): 언제나 모델의 가중치를 변경하는 과정을 포함하지만, 모든 가중치 변화가 곧 학습을 의미하는 것은 아닙니다. 실제로 “학습”이라는 용어는 사전 학습(pre-training), 파인튜닝(fine-tuning), 후처리 학습(post-training) 등 다양한 단계에서 폭넓게 쓰입니다. 이 용어들은 각각 서로 다른 과정을 가리키지만, 문맥에 따라 통칭해서 “학습”이라고 부르기도 합니다.


2. 사전 학습(Pre-training): 모델을 처음부터 학습시키는 것을 의미합니다. 이때 모델의 가중치는 무작위로 초기화된 상태에서 시작합니다. LLM의 경우, 사전 학습은 주로 텍스트 완성(text completion)을 목표로 진행됩니다. 모든 학습 단계 중에서도 사전 학습은 압도적으로 가장 많은 컴퓨팅 자원과 데이터를 소모합니다.


3. 파인튜닝(fine-tuning): 이미 한 번 학습된 모델을 기반으로 추가 학습을 진행하는 과정을 말합니다. 이때 모델의 가중치는 이전 학습에서 얻은 값을 그대로 이어받아 사용합니다. 애플리케이션 개발자가 모델을 추가로 학습시키는 경우에는 주로 파인튜닝(fine-tuning)이라고 부릅니다.


4. 후속 학습(post-training): 많은 사람들이 사전 학습(pre-training) 이후에 모델을 추가로 학습시키는 과정을 일컫는 용어로 사용합니다. 개념적으로는 파인튜닝(fine-tuning)과 거의 동일하며, 실제로 두 용어를 혼용해서 쓰는 경우도 많습니다. 다만, 상황에 따라 두 용어를 구분해 쓰기도 하는데, 주로 모델 개발자가 특정 목적을 위해 추가 학습을 진행할 때 ‘후속 학습’이라고 부르기도 합니다.


5. 일부 사람들은 프롬프트 엔지니어링까지도 “학습(training)”이라고 부르곤 하는데, 사실 이건 정확한 표현은 아닙니다. 기술적으로 보면 이런 방식은 모델에게 맥락(Context)을 입력해 원하는 행동을 유도하는 프롬프트 엔지니어링(prompt engineering)에 해당합니다.


keyword
매거진의 이전글구글 검색 VP가 말하는 리더에게 아이디어 제안하는 팁