brunch

인공지능은 대식가

학습여정

“강의에서 배운 내용을 정리해 공유합니다. 함께 더 풍부한 배움이 되리라 믿습니다.”


대규모 언어 모델(LLM)은 학습이 중단된 시점 이후의 정보나 학습 데이터에 포함되지 않은 개인화된 정보에 접근할 수 없습니다. 따라서 LLM이 최신 정보나 특정 상황에 대한 추론을 수행하게 하려면, 필요한 정보를 프롬프트에 직접 제공해야 합니다.




LLM은 특정 시점 이후의 최신 정보나 훈련 데이터에 없는 개인화된 정보(예: 특정 기업의 내부 문서, 개인 데이터)에 접근할 수 없습니다. 이러한 한계를 극복하기 위해 프롬프트에 필요한 정보를 직접 제공하는 것이 핵심입니다.


방법: 추론에 필요한 데이터를 질문과 함께 프롬프트에 명시적으로 추가합니다.

사례 1: 외부 정보 제공

-문제: LLM은 '우리 집 밖에 새가 몇 마리 있나?'와 같은 개인적인 질문에 답할 수 없습니다.

-해결책: '1월에 120마리, 2월에 150마리, 3월에 210마리, 4월에 408마리가 관찰되었습니다. 현재는 3월입니다.'와 같은 구체적인 데이터를 프롬프트에 넣어주면 LLM은 이를 기반으로 답을 추론할 수 있습니다.



사례 2: 숨겨진 규칙/가정 제공


-문제: '집이 유리 돔으로 덮여 있어 동물이 들어오거나 나갈 수 없다'는 특수한 규칙을 모르는 LLM은 정확한 추론이 불가능합니다.


-해결책: 이와 같은 숨겨진 가정을 데이터와 함께 프롬프트에 명시하면, LLM은 이를 반영하여 '새의 총 수는 항상 동일하다'와 같은 정확한 결론을 도출합니다.


핵심 원리: LLM의 재학습이 아닌, 프롬프트라는 '입력 창'을 통해 새로운 정보를 주입하는 방식입니다. 이 방식은 검색 엔진과 결합하여, 검색 결과로 얻은 문서를 프롬프트에 넣어 LLM이 해당 문서를 기반으로 질문에 답하도록 하는 미래의 애플리케이션 개발에 중요하게 활용될 것입니다.



현실적 실천 방향

질문 전에 정보 제공을 습관화하라: LLM에게 최신 정보나 개인적인 데이터를 기반으로 한 질문을 할 때는, 질문의 맥락과 관련 데이터를 먼저 프롬프트 상단에 배치하고 질문을 시작해야 합니다.


규칙과 가정을 명확히 제시하라: 단순한 데이터뿐만 아니라, 특정 상황에 적용되는 특별한 규칙이나 가정이 있다면 이를 함께 제공하여 LLM의 추론 정확도를 높여야 합니다.


데이터의 한계를 인지하라: LLM에게 제공한 정보가 답변의 유일한 근거가 됩니다. 따라서 불충분하거나 잘못된 정보를 주면 LLM도 잘못된 추론을 할 수 있다는 점을 항상 인식해야 합니다.



→ Digitalian: 2025년 8월 현재 다량의 기사에 따르면, 각종 인공지능들은 ‘자가학습’을 한다고 합니다. 그 알고리즘이 매우 궁금하네요. 자가 학습은 인간이 자율적 학습하는 동기와 같다고 볼 수 있는데, 다른 점은 속도와 양의 측면이라고 생각합니다. 끊임없이 ‘학습’을 한다는 정의는, 끊임없이 ‘데이터’를 제공해야 한다는 말인데요. 과거 기사에서 인공지능에게 현존하는 학습데이터는 ‘고갈’되었다는 말에 의심을 품습니다. 고갈이라는 정당화로 새로운 개인정보를 더 요구할 테니까요. 어제 본 영화 미션임파서블 인공지능 NTT가 왜 떠오를까요? 지금 빅테크 기업들의 인공지능 서비스의 ‘개인화’가 매우 달콤하게 의심스럽습니다.


※ 본 요약은 Coursera의 Vanderbilt University ‘프롬프트 엔지니어링 특화 과정’ 학습 내용을 바탕으로 작성된 개인 학습 기록입니다. 공정 이용(fair use) 범위 내에서 작성되었으며, 강의 원문 및 자료의 직접 복제·캡처는 저작권에 의해 금지됩니다. - by Coursera Plus - "Learning Notes and Summaries by Digitalian”

keyword
작가의 이전글프롬프트 패턴의 중요성