ChatGPT는 진짜로 말을 알아들을까?
뇌와 인공지능 알고리즘의 공통점과 차이점 찾기(3)
챗GPT와 같은 초거대언어모델(LLM)은 '저녁 메뉴 추천'같은 비교적 간단한 테스크부터 '인생의 의미'와 같은 철학적이고 심오한 주제에 이르기까지 다방면의 주제에 대해 훌륭한 답변을 내놓는다.
매우 그럴듯하고 설득력 있는 챗GPT의 답변을 보면서 사람들은 감탄하고 머지않아 인공지능의 지능이 인간을 추월하는 특이점(singularity)이 올 것을 걱정한다. 그런데 과연 챗GPT는 스스로가 생성해 내는 문장의 의미를 진짜로 이해하면서 대답하는 것일까? 이에 대한 해답은 우리 뇌와 LLM이 사물을 인식하는 과정을 비교해 보면 찾아낼 수 있다.
인간의 뇌는 실제로 몸을 움직이는 과정을 통해 세상을 모형화하여 데이터를 학습한다. 우리의 뇌가 어떠한 대상을 언어화하기 위해서 우선 설명하고자 하는 대상을 모형화하여 시뮬레이션하고 이해하는 프로세스가 특히 더 중요하다. 예를 들어 누군가가 운전하는 방법에 대해 설명을 하려고 할 때, 그는 스스로 운전을 하면서 시동을 걸고 기어를 넣고 가속페달을 밟으면서 자동차를 앞으로 나아가게 하면서 자동차의 작동원리를 이해한다. 인간은 이처럼 몸을 움직여 체득한 경험을 지식이라는 형태로 전달하려는 목적으로 사람들에게 언어로 설명한다.
초거대언어모델(LLM)은 인간과 같이 움직임과 시뮬레이션이라는 과정을 통해 설명하고자 하는 대상에 관한 지식을 체득하지 않는다. 대신에 초거대언어모델(LLM)은 통계학에 의존하여 마치 낱말퍼즐을 맞추듯이 질문에 대한 답을 짜깁기하여 생성해 낸다. 초거대언어모델의 뼈대가 되는 알고리즘인 언어모델(language model)은 기본적으로 방대한 양의 말뭉치(corpus)를 사전학습 한 뒤에 새로운 문장이나 단어가 주어졌을 때 그것을 예측하는 형태로 작동하는 수학적 모델이다.
이처럼 컴퓨터가 지식을 이해하는 방식에 관한 문제를 '지식 표현 문제'라고 하는데, 이는 현재의 인공지능 언어모델이 일반인공지능(AGI)으로 진화하기 위해서 반드시 극복해야 할 문제 중 하나다. 인간의 오래된 뇌에 관한 문제에서 살펴보았듯이 실제로 지식의 의미를 이해하는 것은 인간의 개입 없이 스스로의 판단에 의해 행동하기 위한 중요한 요소이기 때문이다. 그러나 인간이 제공하는 방대한 양의 텍스트 데이터를 사전학습 하는 현재의 방식만으로는 인공지능이 진짜로 지식을 가지고 있다고 말할 수 없다.
2010년대 후반부터 이어진 전이학습(transfer learning) 기법과 클라우드(cloud) 기술의 발전은 방대한 양의 데이터를 저장하고 활용할 수 있게 해 주었다. 이를 바탕으로 탄생한 초거대언어모델(LLM)은 산업과 용도에 관계없이 다양한 분야에서 활발하게 사용되며 우리 생활을 편리하게 해주고 있다. 그러나 위에서 살펴보았듯 인공지능 연구의 궁극적인 목표인 AGI 실현을 위해서는 아직 갈길이 멀다. 기술을 한 단계 더 발전시키기 위해서 우리 스스로의 뇌에서 얻은 힌트를 바탕으로 근본적인 발상의 전환이 필요하다.