brunch

You can make anything
by writing

C.S.Lewis

by 문맹 May 15. 2023

챗지피티는 어떻게 사람처럼 언어를 사용할 수 있게 됐나

요즘 챗 지피티는 하루도 빼놓지 않고 세상을 떠들썩하게 만들고 있다. 본 글이 실제로 실리는 날에 세상이 이미 챗 지피티를 못쓰게 만들었다 하더라도 앞으로 두 꼭지는 챗 지피티에 대한 이야기를 하고자 한다. 사람들이 감당하기 힘든 역사를 계속해서 만들어내고 있는 이 인공지능은 대체 어떻게 언어를 배웠으며 그것의 정체성은 무엇인가. 


3월의 마지막 주를 사람들은 생성형 AI의 10년이라 부른다고 한다. 월요일 - 스탠퍼드 대학의 컴퓨터 과학자들도 챗지피티와 유사한 알파카라는 오픈소스 언어 모델을 개발해서 발표했다는 소식이 들렸고, 곧이어 화요일, 독일 윤리 위원회가 ‘인간과 기계 인공지능의 도전’이라는 제목으로 AI의 사용에 대한 인공지능 윤리에 대해 발표를 했다. 수요일에는 텍스트를 입력하거나 이미지 파일을 삽입하면 인공지능이 알아서 그림을 그려주는 미드저니 5.0이 출시되었고 목요일에는 마이크로 오피스 365에서  코 파일럿을 발표했는데 이는 GPT-4를 활용한 AI로 워드, 파워포인트, 엑셀, 각각에서 챗지피티 쓸 수 있도록 만들어주는 기능을 추가한 것으로 이제 오피스 작업은 말로 지시하면 자동으로 원하는 결과를 얻을 수 있게 되어 버렸다. 그뿐인가 구글이 획기적인 기술을 사용하여 만든 3D 해부학 플랫폼인 컴플리트 아나토미 (Complete Anatomy)를, 엔비디아(NVIDIA)가 기업을 위한 대규모 인공지능 니모(NeMo)를 출시하는 등 생성 AI를 기반으로 하는 기술을 사용한 앱들이 쏟아져 나오고 있다. 그리고 이 모든 일은 한 주에 다 일어나 버렸다. 인공지능 전문가들조차도 이러한 소식들에 깔려 죽을 것 같다는 표현을 쓴다고들 한다. 대체 이러한 인공 지능시대에 우리는 어떻게 살아가야 할까. 우리 모두가 새로 나온 모든 인공지능에 대해 알아야만 이것을 사용할 수 있는 것은 아니겠지만 이것들이 대체 무엇을 하는지는 알아야 인공지능과 함께 사는 세상에 대비하지 않겠는가. 


먼저 챗 지피티가 어떻게 언어를 배우는지 살펴볼 필요가 있다. 컴퓨터에게 언어를 가르치려는 인간의 노력은 오랜 기간 동안 계속되었지만 다 실패했었다. 인공지능에게 외국인에게 언어를 가르치듯이 단어의 정의를 알려주고 문법을 가르치니 인간처럼 자연스럽게 언어를 구사하지 못했고, 그 후에 단어와 단어 사이에 확률을 생각해서 통계적인 보정을 통해 가르쳐볼까 했더니 실제로 너무 많은 계산이 필요하게 되어 실패로 돌아갔다. 그렇다면 어떻게 오늘날의 챗 지피티가 나오게 되었을까? 어떻게 컴퓨터가 로봇 같은 엉성한 말투가 아닌 (이 표현 자체가 더 이상 성립되지 않는 시대가 왔지만) 사람과 쉽게 구별되지 않는 정도로 (혹은 사람보다 더 유려하게) 자연스러운 언어 구사가 가능하게 되었는가? 


단순하게 설명하자면 이러하다. 그동안은 컴퓨터에게 우리의 지식을 우리가 사용하는 말로 가르치려다 모두 실패했다. 그런데 사람의 방법이 아닌 컴퓨터가 알아들을 수 있는 방법으로 바꾸어 가르치니 인공지능이 자연어를 구사하게 된 것이다. 조금 자세히 말한다면 단어, 문장, 문서를 수치 벡터로 표현해서 언어가 아닌 숫자로 가르치니 컴퓨터가 사람처럼 자연스러운 언어를 사용할 수 있게 되었다. 단어를 수치로 바꾸는 과정을 임베딩 (Embedding)이라고 하는데 단어의 모든 의미를 기계가 이해할 수 있도록 숫자 형태로 바꾸어 벡터 (vector)를 형성해서 가르치고, 더불어 수험생들이 문제집을 풀면서 배운 내용을 연습하듯이 챗 지피티에게 버트(Bert)라고 불리는 시스템으로 빈칸 채우기 문제 풀이 연습을 시킨 후 두 개의 문장을 주고 문장들이 논리적으로 이어질 수 있는지 아닌지를 맞추는 훈련을 반복적으로 시켰다. 즉 엄청 많은 데이터를 주고 수치로 바꾼 언어를 학습시키고 공부할 문제집을 제공해서 훈련을 시켜 틀리면 다시 시키고 또다시 시키고를 반복시킨 후 마지막으로 사람이 피드백을 주어 정답을 수정을 해가며 강화 학습을 시키는 방법으로 자연어를 익히게 만들었다. 결과는 언어적으로만 보면 대성공이다. 답변의 진위와는 상관없이 일단 물어보는 것에 대해 깔끔하게 대답한다. 


그렇다면 왜 우리는 처음부터 인공지능에게 이렇게 가르치지 못하고 실패에 실패를 거듭했을까? 과거에는 지금 우리가 가지고 있는 어마 무시한 양의 데이터도 없었고 하드웨어도 뒷받침해 주지 못했다. 즉 처음에 나온 컴퓨터는 하드웨어의 용량 부족으로 이러한 대 작업이 불가능했었고 시간도 많이 소요되었었다. 지금과 같은 눈부신 기술 발전과 함께 풍부한 데이터가 모여서 - 즉 1989년부터 웹이 생겨서 많은 사람들이 인터넷을 사용함으로써 - 컴퓨터가 자연어를 성공적으로 배울 수 있게 된 것이다. 


챗 지피티에게 너는 어떻게 사람의 언어를 배웠냐고 직접 물어보니 다음과 같은 답변을 주었다. 

“저는 언어 모델이라는 인공지능 기술을 사용하여 학습되었습니다. 이 기술은 대규모 텍스트 데이터를 기반으로 한 기계학습 알고리즘을 사용합니다. 언어 모델은 문장을 이루는 단어들의 상호작용을 분석하고, 문법, 구문 및 어휘 규칙을 이해하는 데 초점을 둡니다. 이를 위해 저는 Transformer 아키텍처라는 딥러닝 기술을 사용하여 학습되었습니다. Transformer 아키텍처는 자기주도 학습 알고리즘을 사용하여, 텍스트 데이터를 이해하고 문맥을 파악하는 데 있어 뛰어난 성능을 발휘합니다. 학습 과정에서, 제 모델은 다양한 언어의 텍스트 데이터에 노출되었습니다. 이를 통해 저는 다양한 언어의 문법, 구문 및 어휘 규칙, 문화적 뉘앙스 및 구어적인 표현들을 이해할 수 있게 되었습니다. 이러한 다중 언어 학습 덕분에, 저는 영어, 스페인어, 프랑스어, 독일어 및 기타 여러 언어에서 유효한 응답을 생성할 수 있게 되었습니다.”


챗 지피티가 질문에 대해 한국어로 능숙하고 수려한 답변을 하는 것을 보면 놀랍기 그지없다. 그러나 일단 잘 알려진 환각 현상 (Hallucination)은 큰 문제이다. 환각 현상이란 주제와 완전히 동떨어진 헛소리를 답변으로 생성해 내거나 전달 내용은 틀리지만 너무 멋지게 거짓말을 하여 검색하는 사람이 챗 지피티가 내놓은 답변에 깜빡 속아 넘어갈 수밖에 없는 현상을 말한다. 사람들은 보통 잘 모르는 것에 대해 알아내기 위해 인터넷 검색을 한다. 그러므로 모르는 것을 챗 지피티를 통해 질문했을 때 이것이 유려한 언어로 풀어내면 그 답변이 진실인지 거짓인지 모르고 속아 넘어갈 확률이  크다. 또한 맞는 답변일지라도 답변 자체가 미국적, 영어 화자의 문화적 편견을 가지고 있다는 문제도 있다. 영어권의 가치가 내재된 영어 텍스트로 훈련되었기에 답변도 영어권 사용자의 편향되어 있어 사용상의 위험성은 대단히 크다. 예를 들어 챗 지피티에게 한국 문화나 역사에 대해 질문하면 모두 영어로 작성된 책, 인터넷 페이지를 통해 답변을 생성하기 때문에 일단 정확한 답변을 받아내기 힘들고, 답변이 틀림에도 불구하고 형식상으로는 너무나 매끄러운 답변을 내놓기에 이용자가 쉽게 속아 넘어갈 수 있다.  


실험 삼아 챗 지피티에게 한국 역사에서 비극적 사건 5가지를 제시해 달라고 부탁해 봤다. 보다시피 질문이 방대해도 아래와 같이 나름 매끄러운 답변을 10초 만에 제시해 주었다.



답변을 살펴보면 한국 근·현대사에서 무고한 사람들을 떼죽음으로 몰아넣은 비극을 위주로 3.1 운동, 광주민주화 운동, 5.16 군사정변, 세월호 침몰사고 등을 언급하면서 1988년 서울 올림픽 테러를 제시한다.  언뜻 보면 맞는 것 같지만  5.16 군사정변 당시 박정희는 대위가 아니라 육군 소장이었으며 서울 올림픽 중에는 폭탄 테러가 발생하지 않았고 많은 인명피해도 없었다. 이 정보가 위험한 것은 앞 뒤의 사실들이 그럭저럭 잘 설명되어 있기에 질문(검색)을 한 사람은 서울 올림픽 테러가 진짜 있었던 일이라고 생각할 수 있게 된다.  

챗 지피티에게 진실을 고백하게 만들기 위해 아래와 같이 되물었다. 너만 아는 그 서울 올림픽 테러에 대해 자세히 설명하라고. 그러자 챗 지피티는 에러 메시지를 띄웠다.


혹시 한국어로 질문이 이해하기 힘들어 에러 메시지가 나왔나 하는 생각에 챗 지피티를 위해서 (?) 영어로 똑같은 질문을 다시 해주었다. 역시 답변은 에러 메시지다. 여기서 끝나서 다행이기는 한데 어느 상황에서도 수려한 거짓말로 검색한 사람을 속일 수 있다는 것을 생각하면 중요한 문제를 해결하기 위하여 섣불리 챗 지피티를 사용하는 것은 위험하며, 특히 한국역사, 한국정세, 한국 경제 등 영어로 된 자료가 충분하지 않은 주제에 대해서는 챗 지피티를 아직까지는 신뢰할 수 없음이 분명하다. 


전문가들은 이렇게 진실 여부에 대한 출처가 확인되지 않은 수많은 데이터를 바탕으로 환각(Hallucination) 현상이 나타나는 것은 생성 AI의 어쩔 수 없는 문제점이라고 지적한다. 이 환각 현상은 지속적인 모니터링을 통해서 계속해서 줄여나갈 수는 있지만 없앨 수는 없다고  한다. 이런 문제가 일어나는 원인은 AI가 잘못 작성된 데이터나 분류 작업이 제대로 안 된 데이터로 학습하기 때문에 나타나는 것이기도 하고 학습 데이터에 한국어로 된 자료가 극소량이기 때문에 일어나는 일이기도 하다. 결국 챗 지피티는 정답을 내는 기계가 아니라 주어진 질문에 가장 정답일 ‘확률이 높은’ 답변을 제공하도록 만들어져 있고 인간이 준 피드백의 결과로 자신이 제시한 답변에 대해 인간이 만족하는지 아닌지에 대해 평가받으며 학습했기 때문에 오류를 피할 수 없다. 앞으로도 챗 지피티는 겉보기에는 논리적으로 그럴싸해 보이지만 진위를 알 수 없는 정보들을 끊임없이 답변으로 내놓을 것이다.


마지막으로 나름 재미있게 (?) 읽었던 챗 지피티가 지어낸 콩쥐 팥쥐를 소개하며 글을 마친다.   이 글을 읽으신 분들도 챗 지피티에게 콩쥐팥쥐에 대해 이야기해 달라고 부탁해 보시라. 또 다른, 여러분만을 위한, 버전을 만들어 줄 것이다.   


이전 10화 언어 습득에 대하여 우리가 알고 있는 상식 재조명 2
brunch book
$magazine.title

현재 글은 이 브런치북에
소속되어 있습니다.

작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari