학습여정
“강의에서 배운 내용을 정리해 공유합니다. 함께 더 풍부한 배움이 되리라 믿습니다.”
대규모 언어 모델(LLM)은 학습이 중단된 시점 이후의 정보나 학습 데이터에 포함되지 않은 개인화된 정보에 접근할 수 없습니다. 따라서 LLM이 최신 정보나 특정 상황에 대한 추론을 수행하게 하려면, 필요한 정보를 프롬프트에 직접 제공해야 합니다.
LLM은 특정 시점 이후의 최신 정보나 훈련 데이터에 없는 개인화된 정보(예: 특정 기업의 내부 문서, 개인 데이터)에 접근할 수 없습니다. 이러한 한계를 극복하기 위해 프롬프트에 필요한 정보를 직접 제공하는 것이 핵심입니다.
방법: 추론에 필요한 데이터를 질문과 함께 프롬프트에 명시적으로 추가합니다.
사례 1: 외부 정보 제공
-문제: LLM은 '우리 집 밖에 새가 몇 마리 있나?'와 같은 개인적인 질문에 답할 수 없습니다.
-해결책: '1월에 120마리, 2월에 150마리, 3월에 210마리, 4월에 408마리가 관찰되었습니다. 현재는 3월입니다.'와 같은 구체적인 데이터를 프롬프트에 넣어주면 LLM은 이를 기반으로 답을 추론할 수 있습니다.
사례 2: 숨겨진 규칙/가정 제공
-문제: '집이 유리 돔으로 덮여 있어 동물이 들어오거나 나갈 수 없다'는 특수한 규칙을 모르는 LLM은 정확한 추론이 불가능합니다.
-해결책: 이와 같은 숨겨진 가정을 데이터와 함께 프롬프트에 명시하면, LLM은 이를 반영하여 '새의 총 수는 항상 동일하다'와 같은 정확한 결론을 도출합니다.
핵심 원리: LLM의 재학습이 아닌, 프롬프트라는 '입력 창'을 통해 새로운 정보를 주입하는 방식입니다. 이 방식은 검색 엔진과 결합하여, 검색 결과로 얻은 문서를 프롬프트에 넣어 LLM이 해당 문서를 기반으로 질문에 답하도록 하는 미래의 애플리케이션 개발에 중요하게 활용될 것입니다.
질문 전에 정보 제공을 습관화하라: LLM에게 최신 정보나 개인적인 데이터를 기반으로 한 질문을 할 때는, 질문의 맥락과 관련 데이터를 먼저 프롬프트 상단에 배치하고 질문을 시작해야 합니다.
규칙과 가정을 명확히 제시하라: 단순한 데이터뿐만 아니라, 특정 상황에 적용되는 특별한 규칙이나 가정이 있다면 이를 함께 제공하여 LLM의 추론 정확도를 높여야 합니다.
데이터의 한계를 인지하라: LLM에게 제공한 정보가 답변의 유일한 근거가 됩니다. 따라서 불충분하거나 잘못된 정보를 주면 LLM도 잘못된 추론을 할 수 있다는 점을 항상 인식해야 합니다.
→ Digitalian: 2025년 8월 현재 다량의 기사에 따르면, 각종 인공지능들은 ‘자가학습’을 한다고 합니다. 그 알고리즘이 매우 궁금하네요. 자가 학습은 인간이 자율적 학습하는 동기와 같다고 볼 수 있는데, 다른 점은 속도와 양의 측면이라고 생각합니다. 끊임없이 ‘학습’을 한다는 정의는, 끊임없이 ‘데이터’를 제공해야 한다는 말인데요. 과거 기사에서 인공지능에게 현존하는 학습데이터는 ‘고갈’되었다는 말에 의심을 품습니다. 고갈이라는 정당화로 새로운 개인정보를 더 요구할 테니까요. 어제 본 영화 미션임파서블 인공지능 NTT가 왜 떠오를까요? 지금 빅테크 기업들의 인공지능 서비스의 ‘개인화’가 매우 달콤하게 의심스럽습니다.
※ 본 요약은 Coursera의 Vanderbilt University ‘프롬프트 엔지니어링 특화 과정’ 학습 내용을 바탕으로 작성된 개인 학습 기록입니다. 공정 이용(fair use) 범위 내에서 작성되었으며, 강의 원문 및 자료의 직접 복제·캡처는 저작권에 의해 금지됩니다. - by Coursera Plus - "Learning Notes and Summaries by Digitalian”