brunch

생성형 언어모델은 ‘현자’나 ‘현자의 돌’이 아닙니다

언어모델과의 효과적인 상호작용을 위한 우리의 태도

by 푸른알약


[ 1 ] 언어모델의 역할에 대한 기대치 변경


1. 생성형 언어모델을 단순히 질문을 던지면 답을 주는 기계라고 생각하시는 분들이 계신 것 같습니다. 이런 관점에서 접근하면 답변의 품질이 기대에 미치지 못해 실망할 가능성이 큽니다. 결과적으로 사용 빈도가 낮아져서 기술활용 능력 경쟁에서 도태될 수 있습니다.


2. 효과적인 접근 방식은 생성형 언어모델을 '모든 것을 알고 있는 현자'나 '진리를 찾아주는 현자의 돌'이 아닌, '논리 훈련이 잘된 협업자'로 바라보는 것입니다. 이것은 단순한 말장난이 아니라, 상호작용 방식과 기대치를 근본적으로 재조정하라는 것입니다.


3. 이러한 관점 전환은 언어모델의 작동 원리에 더 부합하는 방식으로 상호작용을 이끌어 갑니다. 따라서 언어모델과의 상호작용 품질은 높아지고, 할루시네이션(잘못된 정보 생성)은 줄어들어, 더 신뢰할 수 있는 결과를 얻을 수 있습니다.



[ 2 ] 할루시네이션이 발생하는 원인 인식


4. 어떤 질문에 답변하기 위해서는 크게 두 덩어리의 사고 작용이 필요합니다. 사실 이것은 인간과 AI에게 공히 적용되는 과정입니다. 그저 우리가 선명하게 인식하지 못할 뿐입니다.


1) 답변에 필요한 정보 정제: 질문에 답하기 위해 필요한 사실, 개념, 맥락을 식별하고 수집하는 과정


2) 주어진 정보를 기반으로 판단: 수집된 정보를 조합, 분석하여 결론을 도출하는 과정


5. 언어모델을 사전학습 시키는 과정은 원리상 2)번의 과정, 즉 '주어진 정보를 기반으로 판단(엄밀히는 예측)'하는 능력을 훈련시키는 것에 가깝습니다. 언어모델은 사용자로부터 입력된 정보(프롬프트)를 바탕으로 다음에 올 내용을 예측하는 방식으로 작동하기 때문입니다.


6. 반면 1)번의 과정인 '정보 정제'는 언어모델의 약점입니다. 언어모델은 훈련 데이터에 포함된 정보 속에서 어디까지가 답변에 필요한 정보인지 명확하게 구분하지 않고 답변을 시작합니다. 또한 훈련 데이터에 포함된 정보 외에는 실시간으로 새로운 정보를 찾아낼 수 없습니다(웹검색을 하지 않는 경우).


7. 이것이 언어모델이 때때로 할루시네이션을 일으키는 주요한 원인입니다 - 필요한 정보가 불완전하거나 부정확할 때, 인공지능은 그 간극을 '창의적으로‘ 메우려(확률적으로 생성하려) 합니다. 따라서 LLM과 상호작용할 때는 이 '정보 정제' 과정에 사용자가 명시적으로 개입해야 합니다.



[ 3 ] 신뢰할 수 있는 답변을 얻기 위한 질문형태


8. 언어모델과의 효과적인 상호작용을 위해, 가장 바람직한 상황은 답변에 필요한 정보를 사용자가 직접 제공하는 것입니다. 그러면 언어모델은 주어진 정보 속에서 훈련된 대로 답변을 찾습니다.


9. 그러나 대부분의 경우에는 사용자가 필요한 정보를 가지고 있지 않거나 어떤 정보가 필요한지 모릅니다. 이 경우에는 질문을 하는 과정 속에 '답변에 필요한 정보를 정제'하는 단계를 명시적으로 포함시켜야 합니다. (즉 답변에 필요한 정보의 범위를 정하는 것입니다)


다음은 이를 위한 5단계 프로세스입니다.

(언어모델을 볶음, 조림 등 조리과정‘만’ 잘 배운 조리사라고 합시다. 구체적인 메뉴를 완성하는 법을 배운 요리사가 아니라는 것입니다)


1) 질문의 구체화

무엇에 대한 답이 필요한지 선명히 정의합니다. 이는 당연해 보이지만, 때때로 우리는 알고 싶은 것이 정확히 무엇인지 스스로도 명확히 알지 못하는 경우가 있습니다. (이 단계는 언어모델과 대화하며 범위를 줄여나갈 수 있습니다)

X) 오늘 뭐 먹지?

O) 오늘 저녁 메뉴는 알리오 올리오 파스타로 해야겠다.


2) 필요 정보 식별 요청

그 답을 내리기 위해 어떤 정보가 필요한지를 묻습니다. 이 단계에서 이미 할루시네이션의 가능성이 줄어듭니다.

O) 알리오 올리오 파스타를 만드는 재료는 뭐가 필요해?


3) 식별된 정보의 수집 및 검증

그 정보를 설명해 달라고 요청합니다. 가능하다면 출처를 포함하도록 요청하면 검증할 때 유용합니다. 분량이 부담스러우면 설명을 다시 요약해 달라고 할 수 있습니다.

O) 네가 필요하다고 한 재료를 나열해 줘(구해와).


4) 수집 정보 기반 추론 요청

‘수집된 정보에 기반하여’ 어떤 답이 도출될 수 있는지 묻습니다. 이 단계가 할루시네이션을 크게 줄여줍니다. 왜냐하면 모델이 열린 상태(아무런 제약 없이 답변 생성)가 아니라 닫힌 상태(주어진 정보 내에서 답변 생성)에서 응답하기 때문입니다. (또한 복수의 답이 제시될 가능성을 열어둘 필요도 있습니다)

O) ‘이 재료로’ 알리오 올리오 파스타를 만들어줘.


5) 결론 도출 이유 설명 요청

그 결론에 도달한 이유를 설명해달라고 요청합니다. 이는 사용자의 검토를 용이하게 할 뿐만 아니라, 언어모델이 스스로의 오류를 발견하고 수정할 기회가 되기도 합니다.

O) 그 재료로 알리오 올리오 파스타를 어떻게 만들었어?



[ 4 ] 검토와 검증


10. 위 각 단계 사이에 사용자의 비판적 판단이 필수적으로 개입해야 합니다. 이 비판적 판단은 다음과 같은 형태를 취할 수 있습니다.


1) 이미 알고 있는 내용과의 비교: 제시된 정보가 자신의 기존 지식과 일치하는지 검토

2) 크로스체크: 다른 출처나 다른 방법을 통해 정보를 검증

3) 논리구조 검토: 제시된 추론 과정이 논리적으로 일관되고 타당한지 평가


11. 우리가 다른 사람(협업자)과 의견을 나눌 때는 이러한 비판적 검토 과정을 거칩니다. 반면에 교육자인 선생님에게 무언가를 배울 때에는 틀린 정보를 줄리가 없다는 믿음에서 비판적 검토 과정을 종종 누락하곤 합니다. (이것이 주입식 교육이 비판적 사고력을 배양하지 못하는 이유입니다)


12. 따라서 인공지능을 '모든 것을 아는 현자(선생님)'가 아니라, '논리 판단을 잘 훈련받은 협업자'라고 생각하고 상호작용을 할 필요가 있습니다. (실제로도 그렇습니다) 그러면 언어모델과의 상호작용 중에 검토 단계를 누락하지 않게 됩니다.


13. 이 과정에서 사용자는 정보 정제 과정을 담당하고, 언어모델이 논리적 판단과 연결을 제공하는 방식의 분업이 이루어집니다. 즉 언어모델을 도구가 아니라, 우리의 생각을 확장하고 정교화하는 외부적 두뇌로 활용할 수 있게 됩니다.



[ 5 ] 관점의 확장


14. 이 계층별 질문법은 학술 연구, 비즈니스 분석, 창의적 작업 등 다양한 영역에서 활용될 수 있습니다. 각 맥락에 맞게 단계를 조정하되, 정보 정제와 판단의 구분이라는 핵심 원칙을 유지하는 것이 중요합니다.


15. 언어모델과의 상호작용을 구조화하려고 의식적인 노력을 가하면 중요한 인지 기술을 체득할 수 있습니다. 체계적 질문 방법을 고민하면서 제시된 정보에 대해 평가를 하는 동안 비판적 사고력이 배양될 것입니다.






#AI활용전략 #언어모델사용법 #생성형AI #GPT활용법

keyword
매거진의 이전글언어 모델의 사용자 차등적 반응 사례 (GPT-4o편)