AI 잠재력 끌어올리는 프롬프트 엔지니어링
요즘 나는 AI를 거의 매일 쓴다. 기획을 할 때도, 글을 쓸 때도, 질문을 설계할 때도 그렇다. 그런데 어느 순간부터 답변이 점점 비슷해진다는 느낌을 받기 시작했다. 분명 모델은 더 똑똑해지고 있는데, 내가 받는 답은 오히려 더 무난하고 더 안전해지고 있었다. 처음에는 그저 “아직 기술이 완벽하지 않아서겠지”라고 넘겼다. 하지만 스탠퍼드대학교 연구팀의 논문을 읽으며 이 반복의 원인이 생각보다 기술이 아닌, 우리 자신의 습관에 있다는 사실을 알게 됐다.
연구진은 이 현상을 ‘모드 붕괴(Mode Collapse)’라고 부른다. 이는 AI가 수많은 가능성 중 가장 무난하고 안전한 답변 몇 가지만 반복적으로 선택하는 현상이다. 놀라운 점은, 이 문제가 모델의 성능 부족 때문이 아니라 우리가 ‘익숙한 답’을 더 좋은 답으로 선택해 온 경향, 즉 전형성 편향(Typicality Bias)에서 비롯되었다는 사실이다. 우리가 만들어 온 데이터 속 기준이 그대로 AI의 판단 기준이 되었고, 그 결과 AI 역시 새로운 가능성보다는 가장 안전한 길을 택하도록 학습된 것이다.
그렇다면 이 문제를 어떻게 풀 수 있을까. 스탠퍼드 연구팀은 모델을 다시 훈련하지 않아도, 단 한 줄의 프롬프트 수정만으로 이 현상을 완화할 수 있는 방법을 제안했다. ‘언어화된 샘플링(Verbalized Sampling)’이라는 방식이다. 단순히 “답을 여러 개 달라”고 묻는 대신, 각 답이 선택될 확률이나 이유까지 함께 말해 달라고 요청하는 것이다. 이렇게 하면 AI는 내부에서 계산하던 사고 과정을 언어로 풀어내며 스스로 사고의 폭을 넓히기 시작한다.
나 역시 이 방식을 실제 업무에 적용해 보았다. 같은 질문이라도 확률과 이유를 함께 요청했을 때, 답변은 훨씬 입체적이고 전략적인 방향으로 달라졌다. AI는 더 이상 문장을 만들어 주는 도구가 아니라, 판단의 우선순위와 맥락을 함께 고민해 주는 사고의 파트너처럼 느껴졌다. 이 변화는 생각보다 컸다. 내가 바꾼 것은 모델이 아니라 질문이었을 뿐인데, AI의 태도 자체가 달라진 것처럼 보였다.
이 경험 이후로 나는 하나의 질문을 다시 품게 됐다. AI가 창의적이지 않은 걸까, 아니면 우리가 AI에게 창의적일 기회를 주지 않았던 걸까. 질문을 바꾸는 것만으로도 AI의 가능성은 생각보다 훨씬 크게 달라진다. 그리고 어쩌면 우리가 바꿔야 할 것은 기술보다, 질문의 태도일지도 모른다. 이 글의 전체 내용과 실제 실험 사례 그리고 프롬프트 예시는 요즘IT 원문 링크에서 자세히 확인할 수 있다.
<refer>
https://yozm.wishket.com/magazine/detail/3534/