brunch

You can make anything
by writing

C.S.Lewis

by 오늘의 지식한잔 Mar 14. 2024

생성형 AI를 똑똑하게 활용하려면

프롬프트와 생성형 AI 이해

프롬프트와 생성형 AI

챗GPT열풍과 함께 등장한 단어 바로 프롬프트입니다. 한마디로 명령어라고 이해하면 쉬울 듯합니다. 하지만 이 간단한 단어가 생각보다 여간 쓰는 게 쉽지 않습니다. 이렇게도 써보고 저렇게도 써보는데 원하는 결과가 잘 나오질 않는 경우가 발생하기도 하고, 때로는 전혀 생뚱맞은 답을 줄 때도 있고 부정확하거나 무의미한 답변을 제공하기도 합니다.


그렇다 보니 생성형 AI의 등장과 함께 프롬프트 엔지니어링이란 새로운 직업이 각광을 받고 있기도 합니다.

 


질문의 중요성

따라서 질문을 어떻게 하는가? 프롬프트를 어떻게 작성하는지가 정말 중요하겠죠? 조금만 질문을 다르게 해도, 매력적인 답을 쏟아냅니다.


물론 똑똑한 인공지능이라도 여러 한계가 있습니다. 마치 사실인 듯 마냥 거짓말을 술술 내뱉는 ‘할루시네이션 (Hallucination)’ 이라든지 윤리 및 정치적 편향성이 짙은 답변을 내놓기도 합니다. 


대표적인 할루시네이션 사례로는 “조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘”라고 입력하자 챗GPT가 “15세기 조선시대 세종대왕이 새로 개발한 훈민정음을 작성하던 중, 문서 작성 중단에 대해 담당자에게 분노하여 맥북프로와 함께 그를 방으로 던진 사건입니다.”라고 챗GPT가 답변한 것이 널리 알려져 있습니다.


생성형 AI에서 할루시네이션(hallucination) 은 사실이 아닌 답을 사실인 것처럼 대답하는 현상을 말합니다. 이는 생성형 AI가 정답을 생성하는 것이 아니라 가장 정답일 확률이 높은 답변을 생성해 내기 때문에 발생하는 현상입니다. 하지만 여기서 중요한 팩트는 처음부터 사용자의 질문이 잘못되었다는 것입니다. 질문 자체가 역사적 사실과 맞지 않은 상황을 가정하여 질문을 했기 때문에 다음 단어 예측 모델인 챗GPT는 최선을 다해 답변을 하기 위해 다소 억지스러운 답을 내놓은 것입니다. 


이러한 현상은 생성형 AI를 사용하다 보면 만날 수 있는 상황으로, 지금은 이런 문제가 많이 개선이 되었지만 할루시네이션에 대처하기 위해서는  명확하고 구체적인 조건을 제시하는 프롬프트 엔지니어링 중요합니다. 


우린 거대 언어 모델 시스템 사용에 있어서 안정성이 떨어지는 이런 한계를 인지하고 챗 GPT와 같은 생성형 AI를 활용한다면, 사람의 판단력과 분별력으로 더 좋은 질문을 하고, 더 나은 답변을 추려낼 수 있을 겁니다. 


생성형 AI의 특징을 잘 알아야 프롬프트를 잘 쓸 수 있다.

챗 GPT, 마이크로소프트 빙, 구글의 바드 여러 생성형 AI가 앞다투어 나오는 요즘 언어 모델이 학습한 방식을 이해하다 보면 자연스럽게 프롬프트 작성법에 대한 아이디어를 얻을 수 있습니다. 가장 대표적인 챗 GPT를 예를 들어 설명하겠습니다. 사실 해답은 Chat Gpt 이 단어에 다 담겨있다고 봅니다.


그럼 지금부터 챗GPT 단어의 의미부터 알아보겠습니다.






챗 GPT의 의미

ChatGPT는 'Chat Generative Pre-trained Transformer’의 약자입니다. 이 용어를 간단히 풀어서 설명하면 다음과 같습니다.


Chat (챗): 이는 '대화’하다는 의미 합니다. ChatGPT는 사용자와 대화를 나눌 수 있는 AI입니다.

Generative (제너레이티브): '생성적’이라는 의미로, 새로운 내용을 만들어낼 수 있다는 것을 나타냅니다. ChatGPT는 질문에 대한 답변, 이야기, 글 등을 생성할 수 있습니다.

Pre-trained (프리-트레인드): '사전 훈련된’이라는 뜻으로, ChatGPT는 이미 방대한 양의 데이터로 훈련을 받은 상태입니다. 이 훈련을 통해 언어를 이해하고, 대화를 나눌 수 있게 됩니다.

Transformer (트랜스포머): 이는 AI 모델의 한 종류로, 문장의 맥락을 이해하고, 언어를 처리하는 데 사용되는 기술입니다.


따라서, ChatGPT는 사용자와 자연스러운 대화를 나누고, 새로운 텍스트를 생성할 수 있는 사전 훈련된 AI 모델이라고 할 수 있습니다. 이런 부분이 기존의 챗봇이 하지 못했던 혁신적인 일입니다.


챗 GPT는 우리의 말을 기억하고 대화를 할 수 있습니다. 모든 대화를 기억하진 못하지만, 입력한 문장 앞의 맥락을 이해하고 질문에 대해 적절한 응답을 하죠. 


정리하면 챗GPT는 사람처럼 자연스럽게 대화하면서, 사람처럼 대화의 맥락을 기억한다입니다.


챗 GPT는  대규모의 데이터를 학습했습니다. 무려 3,000억 개의 단어와 5조 개의 문서. 어마어마한 양을 학습해서 거대언어모델(Large Language Model: LLM)이라고 합니다.


Pre-trained 사전에 학습된 데이터를 바탕으로 Transformer 변환기를 통해 문장과 단어 사이의 관계를 파악해 적절한 응답을 생성합니다. 어떤 문장이 있다면, 한 단어 다음에 나올 확률이 높은 단어가 나오는 원리예요.


나는 밥을 ___라는 질문을 하면 ‘먹었다’ ‘먹는다’ 이때 LLM(거대언어모델) 이 학습한 데이터 내에서, 문장의 맥락을  이해한 후 가장 높은 빈도로 사용된 단어가 생성되는 겁니다.




챗 GPT는 단기 기억을 가지고, 앞의 문장을 계속 추론하고, 1,750억 개 매개변수를 기반으로, 한 번 연산할 때 1,750억 개 매개 변수의 가중치를 다 바꾸면서 계산하는 것입니다. 


그것도 아주 빠른 속도로 사람이 입력한 단어(토큰)를 기준으로 예측하면서 답을 생성하는 모델입니다.

정말 놀랍지 않나요? 








생성형 AI는 통계학적 앵무새? 다음 단어 맞추기 기계?

혹자는 이런 이유를 들어 생성형 AI는 통계학적 앵무새다, 다음 단어 맞추기 기계다.라고 말하기도 합니다.


하지만, 과학자들이 이런 문제를 그대로 두고 방치하진 않겠죠? 

개발자들은 이런 뛰어난 능력을 가진 생성형 AI에 지속적인 피드백을 통해 해결해 나가고 있습니다.


지금은 오픈 AI사의 챗GPT 출시 후 다양한 생성형 AI 모델이 들이 나와 있습니다.

대표적으로 구글의 바드(제미나이), 코파일럿, 네이버 하이퍼크로버 X, 네이버 큐, 뤼튼 등이 있습니다.


그런데 이런 생성형 AI도 종류마다 개발자도 다르고, 데이터 학습 방식도 다르고, 답변을 고치면서 피드백을 통한 콘텐츠를 보강하는 방식도 다르다 보니 똑같은 질문에 서로 다른 답변이 나온 다고 합니다. 






생성형 AI도 MBTI가 있다?

그런데 재미있는 건 생성형 AI들도 MBTI가 있다는 사실입니다. 일부 학자들이 각각의 생성형 AI 모델들에게 MBTI 검사를 위한 질문을 한 후 답변을 받아 분석했더니 챗GPT 3.5 버전은 ENTJ가 나왔다고 합니다. 그런데 이 3.5 버전을 추가로 콘텐츠를 강화 학습 시킨 후 테스트를 했더니 성향이 GPT-4 버전은 INTJ로 성향이 바뀌었다고 합니다. 


이쯤 되면 정말 인공지능이 마치 인간 같다는 착각이 들기도 하는데 저만의 생각일까요?

아마도 챗GPT-3.5 버전과 유료 버전인 챗GPT-4 버전을 사용해 보신 분은 공감하리라 생각합니다.





다음 장에서는 시중에 나와 있는 다양한 생성형 AI 7종의 특징을 자세하게 알아보겠습니다.






매거진의 이전글 생성형 AI 활용 백서
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari