brunch

You can make anything
by writing

C.S.Lewis

by 산내 May 17. 2024

챗GPT와 기존 AI의 결정적 차이

챗GPT는 기본적으로 사람과 주고받는 대화가 가능한 대화형 언어 모델이다. 

그런데 사람처럼 대화할 수 있는 AI는 삼성의 빅스비, 애플의 시리, 아마존의 알렉사, 네이버 크로바 등 이미 다양하다.  


그렇다면 챗GPT는 기존의 대화형 AI와 어떤 차이가 있을까?
챗GPT와 기존 AI의 결정적 차이는 초거대라는 점이다. 

초거대 AI는 대용량 데이터를 스스로 학습해 인간처럼 종합적 추론이 가능한 AI다.
기존 AI보다 데이터 학습량이 수백 배 이상 많기 때문에 인간의 뇌에 더 가까워졌다는 점이 가장 큰 특징이다.  

기존 AI는 사용자의 질문에 반응하고 답하는 기초적인 수준이었다면, 챗GPT는 사용자가 묻는 질문의 맥락을 이해해서 인간과 가장 유사한 답변을 내놓는다.
 
챗GPT의 탄생에는 트랜스포머 모델, 대규모 언어 모델, 딥러닝, 멀티 모달 등의 특별한 기술이 적용되었다. 

기계인 컴퓨터가 사람과 대화하려면 인간이 일상생활에서 사용하는 자연어를 듣거나 읽고 이해해야 하는데, 이것을 가능하게 하는 기술이 트랜스포머 모델이다.  

인간의 언어를 기계가 이해할 수 있도록 대규모 텍스트를 학습해서 단어와 단어 사이의 패턴과 관계를 파악해 텍스트 분류·생성. 요약 등이 가능하도록 자연어를 변환시켜 준다.

 
이 과정에서 AI의 학습 과정을 머신 러닝에서 딥 러닝으로 진화시켰다.
기존의 머신 러닝은 지도 학습의 개념으로 AI가 데이터를 인식할 수 있도록 사람이 미리 가공한 데이터를 학습시켜서, 컴퓨터가 데이터의 특징을 분석해 결과를 도출하는 방식이다.  

 

하지만 딥러닝은 사람의 뇌신경 조직을 모방한 인공 신경망(뉴런 네트워크) 기술을 활용해, 정답을 따로 알려 주지 않아도 스스로 배우고 답을 찾는 비지도 학습, 이른바 자기 지도 학습방식이다.
 
이 같은 트랜스포머 모델의 자연어 처리 기능은 데이터를 순차적으로 학습하던 순환 신경망 RNN 방식이 아니라, 전체 데이터를 한꺼번에 처리하는 병렬 처리로 대규모 데이터를 이전보다 약 275배 빠르게 딥 러닝 할 수 있도록 했다.  

이 딥 러닝 기술을 대규모 언어 모델에 적용한 게 바로 챗GPT, 즉 생성형 AI다.
 

언어 모델이란 하나의 단어 다음에 어떤 단어가 오는 게 좋을지 적절한 단어를 통계적·확률적으로 예측하는 모델인데, 챗GPT-3의 경우 인간 두뇌의 시냅스에 해당하는 파라미터(매개 변수)가 1,750억 개 사용되었다.  

구글의 바드에는 5,300억 개 사용되었다. 
파라미터는 인간의 뇌에서 정보를 학습하고 기억하는 역할을 담당하는 시냅스와 유사한 AI의 뇌 기능이다.  
파라미터 규모가 클수록 AI는 인간에 가까운 학습 능력을 갖게 된다.
 

챗GPT는 언어, 즉 텍스트만 딥 러닝 대상으로 한 게 아니라 시각·미각·촉각·동작까지도 통합해서 학습할 수 있도록 멀티 모달 AI를 활용했다. 
이런 정확한 상황 인지를 통해 AI는 좀 더 명확한 판단을 내릴 수 있고, 나아가 관련 이미지와 영상도 만들어 준다.
  

이처럼 챗GPT는 기존의 AI와는 달리 사람처럼 사용자가 요구하는 내용에 대한 맥락을 정확히 이해해서 원하는 결과물을 내놓는 '초지능 Al'이자 문답식으로 답변을 수정해 가며 최적의 결과를 도출하는 '대화형 AI'라는 점에서 알파고 같은 기존의 AI와 본질적으로 다른 차이가 있다고 할 수 있다.


작가의 이전글 공유와 추천이 잘되는 콘텐츠 알고리즘의 비결
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari