너무도 빠르게 격변하고 있는 생성형 AI
챗gpt와 LLAMA의 차이점, 뭐가 다를까?
2023년 2월 마크 저커버그 메타 CEO는 자신의 SNS 계정을 통해 라마(LLaMA)라는 이름의 인공지능 모델을 발표하였다. 대규모 언어 모델이 텍스트 생성은 물론이고 수학 정리, 단백질 구조 예측까지 한 단계 더 복잡하고 어려운 작업을 처리할 수 있음을 시사하였다. 이로서 대규모 언어모델 간 뜨거운 경쟁이 다시 한번 본격화되었는데 과연 챗 GPT와 LLAMA는 어떤 차별점을 지니고 있을까?
상업적 이용
LLAMA는 챗 gpt와 다르게 오픈소스로 공개되었다. 이는 상업적으로 이용이 가능하다는 점이다. 오픈소스의 챗 gpt나 구글의 '람다'의 경우 소스 코드가 공개되지 않는다. 상업적으로 사용할 때 역시 비용을 지불해야 한다. 하지만 메타의 경우 무료로 오픈소스 공개 방침을 밝혔다는 점이 두드러진 차별점이다.
반면에 오픈소스라서 LLaMa가 챗 gpt대비 안 좋을 수 있다. 재료는 공개되어 있지만 잘 사용하면 약이 되고 잘못 사용하면 독이 될 수 있다. 안전하지 않은 쿼리를 사용하여 잘못된 판단이나 결과를 도출할 수 있다. 파인 튜닝에 있어서 LLaMa는 누구나 스스로 조정할 수 있어 위험할 수 있다. 메타는 이런 문제를 해결하기 위해 전담팀을 만들어 검열을 하는 등의 노력을 기울이고 있는데 과연 얼마나 실효성이 있을지는 지켜볼 필요가 있다.
매개변수 활용
매개변수 즉 파라미터는 인간 뇌의 시냅스와 같은 것이다. 라마 2는 다른 LLM에 비해 용량이 적다. 매개변수 규모에 따라 4가지 모델(70억 개, 130억 개, 330억 개, 6500억 개)로 규모를 나눠 사용할 수 있다. 가장 큰 650억 파라미터도 GPT 3.0(1750억 개) 보다 작다. 파라미터가 크면 클수록 GPU 등의 컴퓨팅 파워를 적게 사용한다는 장점이 있다. Llama 2 언어 모델은 OpenAI의 GPT-3.5보다 더 최신 데이터를 제공하여 출력되는 결과물 역시 안전성이 높다는 장점이 있다.
파인튜닝과 최적화
llama 2는 파인 튜닝 프로세스를 대폭 개선하여 chatgpt를 포함한 다른 오픈 소스 모델과 차별화했다. 파인튜닝은 성능과 유용성을 향상하기 위해 특정 작업 및 데이터 세트에 대한 기본 모델을 교육하는 작업이다. llama2의 주요 장점 중 하나는 인간의 선호도에 맞춰 세밀하게 조정되었다는 것이다. chat gpt, bard 등 많은 언어 모델의 경우 파인 튜닝이 어렵거나 부족했다. 이번 llama 2는 광범위한 파인 튜닝을 통해 모델의 유용성과 안전성을 향상했다.
무엇보다 사용 목적이 다르다
챗봇은 인간과 컴퓨터 간 음성 혹은 텍스트로 대화하고 시뮬레이션하는 것을 의미한다. 큰 범주에서 챗 GPT는 챗봇이다. 챗봇의 목적으로 만들어졌고 인간과 컴퓨터 간 상호작용이 원활하여 큰 호응을 얻고 있다. LLaMa의 경우 챗봇의 목적으로 만든 알고리즘은 아니다. 물론 챗봇으로도 사용할 수 있지만 그건 사용자의 용도에 맞춰 알아서 커스터마이징 하며 쓸 수 있는 것이기 때문에 '챗봇'이다라고 이야기할 수는 없다.
chat gpt, 라마, 제미니 등 다양한 모델이 앞다투어 성능을 향상해 나가고 있다. 어떤 모델이 우수하고 차별적인지는 비용, 프롬프트 지원 커뮤니티 등에 따라 다르다. 예를 들어 라마는 무료이지만 챗 gpt 4는 유료이고, 프롬프트의 예시는 chat gpt가 챗봇 형태로 활용되어 훨씬 다양한 편이다. 그렇기에 최고의 모델은 결국 자신의 상황에 따라 취사 선택해야 하는 것 같다. 개인적으로 사용 편의성은 제미니가 가장 높은 것 같고 성능은 LLaMa2가 가장 우수하다고 생각하는데 이건 어디까지나 기획자의 입장이다. 개발자, 디자이너, 약사, 의사, 심리 상담사 등의 직업군에 따라 선호하는 모델이 다를 것이라고 생각한다. 2024년 2분기, 3분기에는 각 모델별로 어떤 장단점들이 진화하고 있을지 계속 주목해서 살펴봐야겠다.