brunch

챗GPT-프롬프트 -쌀을 넣어야 맛있는 밥이 나옵니다

by 진순희


한국 책쓰기 코칭 협회의

진순희 작가입니다~^

<AI ART로 한 방에 뚝딱 예술가 되기>의 저자이기도 하구요.

43168182618.20231013091547.jpg AI ART로 한 방에 뚝딱 예술가 되기저자진순희,윤종두출판더로드발매


저는 이렇게

종이책 코칭지도사

전자책출간지도사

독서모임운영지도사

자기주도학습지도사

4개의 자격증 과정을 운영하고 있어요.


챗GPT를 갖고 종이책코칭지도사나 전자책출간지도사 수업 시간에 프롬프트를 넣어 다양한 결과물들을 생성하고 있습니다.


수강생들이 말합니다.




"제가 한 것은 밋밋하게 아주 단순한 답이 나오는데, 대표님은 어떻게 이렇게 잘 나오냐고요.
"이렇게들 많이 묻습니다. 독서모임운영지도사 수업 중에도 챗GPT를 활용하는 법을 알려드리고 있어요.
왜냐하면 나중에 수강생 모객할 때 블로그도 써야 하기 때문에 챗GPT를 활용할 일이 많기 때문이에요.


이제 챗GPT의 프롬프트 넣는 법을 알아볼까요?

챗GPT는 ‘Generative Pre-trained Transformer’의 약자로 챗봇에 AI를 장칙해 인간과 chatting하는 프로그램입니다.


GPT의 "Pre-trained'라는 용어에서 알 수 있듯이 챗GPT는 방대한 양의 데이터를 받아 사전에 교육받은 한 겁니다.



photo-1676272682018-b1435bad1cf0.jpg?type=w966



챗GPT에 텍스트 프롬프트를 넣어 입력하면 사전에 학습한 지식을 토대로 다음 단어를 예측해서 생성해 내는 것입니다.

사전 지식을 학습하는 과정을 거쳐서 GPT에세 chat(대화) 하도록 훈련시킨 것이지요. 답이 이럴 거라는 것을 예측을 할 뿐이지 언제나 정답을 주는 것은 아닙니다.


아래 그림은 챗GPT에 프롬프트를 넣어 DALL-E 3로 이미지를 생성한 것이에요.


20240208_215345-%EB%8F%84%ED%98%95.png?type=w966 #한국책쓰기코칭협회 #진순희만듦



프롬프트를 잘 넣으려면 챗GPT의 트랜스포머 알고리즘에 대해 이해할 필요가 있습니다. 신경망 아키텍처의 한 종류인 트랜스포머는 언어를 번역하거나 텍스트를 요약합니다. 질문이나 답변과 같은 자연어 처리 작업에도 사용되고요.


말 그대로 트랜스포머는 자연어 처리 작업의 최적화된 신경망의 한 종류입니다. 트랜스포머 모델은 입력 데이터를 처리하고 해석하여, 그 결과를 바탕으로 새로운 텍스트를 생성하는 고급 기술입니다. 이 모델은 인코더와 디코더 두 주요 부분으로 구성됩니다.


인코더는 입력된 데이터를 분석하여 각 단어나 요소의 중요한 정보와 문맥을 파악합니다. 이를 통해 데이터 내의 단어들 사이의 관계를 이해해 내부적으로 표현합니다. 반면에 디코더는 인코더로부터 받은 정보를 바탕으로, 최종적인 텍스트를 생성합니다. 이 과정에서 이전에 생성된 단어들 사이의 관계를 고려하여, 문맥에 맞는 적절한 단어를 선택해서 배열합니다.


이를테면 인코더는 입력 데이터를 처리하고, 시퀀스 내 각 요소에 대한 연속 표현(임베딩)을 생성하는 것입니다. 디코더는 인코더의 출력을 바탕으로 최종 결과를 생성합니다. 각 인코더와 디코더는 여러 개의 동일한 레이어로 구성되어 있으며, 각 레이어는 멀티헤드 어텐션 메커니즘과 포지션-와이즈 피드 포워드 네트워크를 (포지션 와이즈 완전 연결 피드포워드 망)포함합니다.


20240208_215010.png?type=w966


위의 그림을 보며 다시 설명해 볼까요 ~^^


1.인코더: 멀티헤드 셀프 어텐션 메커니즘은 입력 데이터 내의 각 단어가 서로 얼마나 관련이 있는지를 파악하여, 문맥을 이해합니다. 이후 포지션-와이즈 피드포워드 네트워크를 통해 각 단어의 정보를 변환합니다


2. 디코더: 멀티헤드 셀프 어텐션 메커니즘은 출력 시퀀스를 생성하는 과정에서 이전에 생성된 단어들 사이의 관계를 파악합니다. 이러한 구조를 통해 트랜스포머는 문맥을 이해하고, 해당 문맥에 맞는 적절한 출력을 생성할 수 있습니다.


멀티헤드 어텐션 메커니즘은 인코더의 출력과 디코더의 출력 사이의 관계를 파악하여, 입력 데이터와 관련된 출력 데이터를 생성하는 데 도움을 줍니다.


어텐션 기술은 텍스트의 각 조각이 서로 얼마나 관련이 있는지를 자세히 살펴서 중요한 부분을 기준으로 텍스트를 다시 생성해. GPT는 트랜스포머 모델을 미리 학습합니다. 모델을 잘 맞춰주기 위해서 여러 가지 값이 필요한데, 이 값들을 파라미터라고 합니다.


a7ae66f9-e6c0-40f3-bcce-32c48ea93dd7.jpg?type=w966


부연 설명하자면 GPT는 미리 학습한 모델로 새로운 텍스트를 만들 수 있습니다.

이러한 구조를 통해 복잡한 문장이나 문서에서도 각 단어의 의미와 그들 사이의 관계를 정확히 파악하여, 자연스러운 번역이나 요약 등의 작업을 수행할 수 있습니다.



38018933631.20230815075900.jpg 챗GPT에게 묻는 인류의 미래저자김대식,챗GPT출판동아시아발매2023.02.28.


(김대식 교수의 <챗gpt에게 묻는 인류의 미래>를 읽고 제가 이해한 대로 정리하였음을 밝힙니다.)


20240208_224121.png?type=w966 #한국책쓰기코칭협회 #진순희만듦


프롬프트에 제대로된 자료, 즉 쌀을 넣어야 제대로된 밥, 다양한 밥이 나올 수 있습니다.

제대로 된 자료를 넣기 위해서는 결국 아날로그적인 역량이 필요합니다.

그 어느 때보다 더 많이 읽고 더 많이 쓰는 능력이 필요한 시기입니다.


1515828.jpg?type=w966



#챗GPT #트랜스포머 #프롬프트

#한국책쓰기코칭협회 #진순희

#종이책코칭지도사 #전자책출간지도사

#독서모임운영지도사 #자기주도학습사


keyword
매거진의 이전글AI ART동화책-말썽꾸러기 잭 Naughty Jack