“왜 이렇게 엉뚱한 답을 주죠?” GPT 오류 피하는 법,프롬프트엔지니어
처음 ChatGPT를 썼을 때, 꽤 놀라웠다. 내가 타이핑한 몇 줄의 질문만으로 논리 정연한 글을 뚝딱 써내는 모습은 마치 기계가 생각하는 것처럼 보였다. 하지만 이내 실망도 따라왔다. 분명 정확히 물었다고 생각했는데, GPT는 얼토당토않은 말을 하거나, 실제 존재하지 않는 정보를 제시하곤 했다. 마치 똑똑한 친구가 허세 섞인 아는 척을 할 때처럼.
많은 사람이 여기에 실망한다. “AI, 아직 멀었네.”라고 말하며 돌아선다.
하지만 나는 오히려 그 반대로 생각했다.
‘우리가 AI를 잘못 부리고 있는 건 아닐까?’
GPT는 거대한 계산기라는 점을 믿어야 한다.
이 책에서는 이렇게 말한다.
GPT는 언어 모델이다. 당신이 말하는 문장의 구조와 맥락을 확률적으로 해석해 가장 가능성 높은 응답을 만들어낸다. 그렇기 때문에 질문이 애매하면 애매할수록, GPT는 ‘적당히 그럴듯한 말’을 지어내는 데 집중한다.
예시 – 나쁜 질문:
“광고 문구 추천해줘”
→ 무난하고 밋밋한 슬로건만 나온다.
예시 – 좋은 질문:
“20대 여성을 타겟으로 한 비건 스킨케어 브랜드입니다. 인스타그램 광고에 쓸 짧은 문구 3개 추천해줘. 제품은 저자극 컨셉이고, 감성적인 느낌이면 좋겠어.”
→ “성분은 순하게, 매력은 강하게.” 같은 답이 나올 확률이 높다.
GPT가 엉뚱한 답을 할 땐, 먼저 내 질문이 얼마나 구체적이었는지, 역할과 맥락을 줬는지 점검해보자. 이것만으로도 답의 질이 눈에 띄게 달라진다.
GPT는 어떤 상황에서는 진실을 말하지 않는다. 심지어 없는 논문도 생성해낸다
GPT는 가장 그럴듯한 문장을 말한다.
이걸 인식하지 못하면, “오~ 이건 진짜인가 보다” 하고 그대로 믿기 쉽다. 하지만 GPT는 학습된 데이터에 기반해 확률적으로 다음 말을 예측할 뿐, 사실 여부를 검증하지 않는다.
예시:
“프랑스의 대표적인 18세기 역사서 3권을 알려줘.”
→ GPT는 실제로 존재하지 않는 책이나 저자 이름을 만들어내기도 한다.
해결 방법:
“존재하는 책만 알려줘. 존재하지 않는 정보는 ‘모른다’고 답해줘.”
“각 결과에 대해 실제 존재 여부를 우선 검토하고, 확인된 것만 출력해줘.”
이런 식으로 출력에 대한 기준을 명시해주는 것이 좋다.
GPT는 입력된 문장을 따라간다.
하지만 출력 형식에 대한 제한이 없으면, 때론 너무 장황하거나, 때론 너무 단순한 답변을 준다.
이럴 땐 출력의 형식을 명확히 지시해야 한다.
예를 들어, “표로 보여줘”, “세 줄 이내로 요약해줘”, “소제목 + 설명으로 정리해줘” 같은 지시가 그것이다.
GPT는 생각보다 지시를 잘 따른다.
문제는 우리가 그 지시를 안 했다는 것이다.
ChatGPT는 우리가 생각하는 것처럼 ‘장기 기억’을 갖고 있진 않다.
대화 중 맥락은 유지하지만, 입력 창을 초과하는 이전 대화는 잊는다.
그런데 반대로, 너무 많은 맥락을 한꺼번에 주면 혼란을 느낀다.
해결 방법:
이전 대화 내용을 명시적으로 요약해주는 것도 좋다.
또는, 쿨하게 새 대화를 시작하면서 필요한 정보만 제공하는 것이 정확도에 도움이 된다.
역할(Role) – “너는 마케터야, 디자이너야, 기자야.”
목표(Objective) – “이 문서를 요약해줘. 블로그 제목 5개를 추천해줘.”
형식(Format) – “표로 정리해줘. 문장 길이는 2줄 이내로 해줘.”
이 3가지만 지켜도 GPT는 놀랍도록 성실하게 당신의 ‘팀장’이 되어줄 것이다.
우리는 AI에게 너무 많은 걸 기대하면서, 정작 그것을 잘 활용하는 방법은 배우지 않는다.
GPT는 생각보다 똑똑하다.
하지만 그 똑똑함을 꺼내는 건 결국 우리의 질문 방식이다.
잘못된 답은 AI의 문제가 아니라, 잘못된 질문의 결과일 수도 있다.
『AI 지배자』를 통해 프롬프트 엔지니어링을 체계적으로 익히면,
AI는 단순한 도구를 넘어, 당신의 진짜 팀장이 되어줄 수 있다.
교보나 밀리의 서재 에서도 만날 수 있어요!
https://ebook-product.kyobobook.co.kr/dig/epd/ebook/E000011255549