'기억'을 품고 진화하는 LLM 컨텍스트 기술의 비밀

by 멘토사피엔스

LLM, 대화 내용을 자꾸 잊어버린다고?


LLM(거대 언어 모델)과 대화할 때 이런 느낌 받아본 적 없으신가요? 분명 방금 얘기했던 내용인데, 마치 처음 듣는 것처럼 다시 설명해야 할 때가 있습니다.


LLM은 한 번 대화가 끝나면 이전 내용을 '기억'하지 못해요. 그래서 다음 질문을 할 때마다 그동안 나눈 모든 대화 내용을 통째로 다시 알려줘야 맥락을 이해할 수 있답니다. 마치 매번 새로운 사람과 처음 대화하는 것과 비슷하죠.


대화가 길어지고 오고 가는 정보가 많아질수록 이런 '건망증'은 큰 문제를 만들게 됩니다.

비용 문제: 매번 긴 대화 내용을 통째로 전달하니, 돈이 더 많이 들어요.

속도 문제: 전달해야 할 내용이 많아지니, 답변을 받는 데 시간도 더 오래 걸리죠.

메모리 문제: 엄청난 양의 데이터를 처리해야 해서, 필요한 컴퓨터 자원(메모리)도 계속 늘어나요.


결국, LLM은 똑똑하지만 '기억' 때문에 비효율적이라는 숙제를 안고 있었습니다.

그렇다면, 이런 LLM의 '기억상실증'을 해결하기 위해 개발자들은 어떤 기발한 아이디어들을 생각해냈을까요?


LLM이 기억하는 방법


LLM(거대 언어 모델)의 작동 방식을 이해하는 중요한 개념은 '기억'을 다루는 방식인 스테이트리스(Stateless)와 스테이트풀(Stateful)입니다. 이는 사람이 대화할 때 '기억'을 활용하는 방식과 '건망증'에 걸린 상태와 비교해볼 수 있습니다.


스테이트리스: '건망증 천재' '상태가 없다'는 의미 그대로, 스테이트리스 방식은 LLM이 매번 새로운 질문을 받을 때마다 이전 대화 내용을 완전히 잊어버리는 것을 뜻합니다. 마치 방금 대화한 내용을 모두 지워버리는 것과 같아요. 이러한 방식 덕분에 하나의 모델을 여러 사용자가 동시에 효율적으로 재사용할 수 있지만, 대화가 길어질수록 입력 데이터가 계속 늘어나면서 비용, 속도, 메모리의 한계에 부딪히게 됩니다. 현재 대부분의 대규모 상용 LLM은 기본적으로 이 방식을 따릅니다.


스테이트풀: '기억하는 동반자' '상태가 있다'는 의미로, 스테이트풀 방식은 LLM이 이전 대화 내용을 어딘가에 저장하고 기억하는 것을 말합니다. 사람이 대화의 맥락을 기억하고 이어가듯 말이죠. 모델이 대화 내용을 내부적으로 요약하거나, 외부에 별도의 메모리 시스템을 두어 저장함으로써, 대화가 길어져도 효율적으로 컨텍스트를 유지할 수 있습니다. 이는 개인화된 대화나 긴 시간 동안의 복잡한 작업에 유리하지만, 여러 사용자가 모델을 공유하기가 복잡하고 기술적 난이도가 높다는 단점이 있습니다.


모델 자체의 '기억력' 강화 시도


개발자들은 모델 자체의 기억력을 강화하기 위한 여러 연구를 진행하고 있습니다.


재귀/상태 기반 변형


이 방식은 LLM이 이전 대화 내용을 통째로 다시 읽는 대신, 과거 대화의 핵심 정보나 '상태(state)'를 효율적으로 요약해서 다음 단계로 전달하는 기술이에요. 마치 '이전 대화의 요약본'을 다음 대화에 참고하는 것과 같죠.

Transformer-XL: 이 모델은 이전 대화의 일부(세그먼트)를 재사용해서 컨텍스트를 유지하는 방식을 사용했어요. 매번 모든 대화 기록을 재처리하지 않고, 이전 세그먼트의 '기억'을 다음 계산에 활용하는 거죠.

Mamba 계열 (SSM): 최근 주목받는 새로운 구조로, '선형시간 추론'과 '장기 의존성 유지'에 특화되어 있어요. 마치 대화가 실시간으로 흘러들어올 때, 중요한 정보만 요약해서 '기억 상태'에 저장해두고 다음 단계에 활용하는 방식입니다. 덕분에 비용과 지연에 민감한 스트리밍이나 온디바이스(기기 내) AI 환경에서 특히 유용해요.


시스템적 메모리화


이 방식은 모델의 내부 구조를 바꾸기보다는, 모델과 외부 시스템을 결합하여 '기억'을 만드는 시도예요. "모델은 짧은 창, 시스템은 긴 기억"이라는 아이디어를 기반으로 합니다.


MemGPT

이 프레임워크는 마치 컴퓨터의 가상 메모리처럼 작동해요. LLM은 짧은 대화 내용만 기억하고 있지만, 대화 내용이 길어지면 시스템이 자동으로 외부 저장소(하드디스크)에 그 내용을 보관하고, 필요할 때마다 다시 불러와서 LLM에게 제공해주는 방식이죠. 이는 LLM이 마치 엄청난 양의 데이터를 기억하는 것처럼 보이게 만들어요.


이러한 시도들은 매우 혁신적이지만, 아직 상용 대규모 모델에 완전히 적용되기에는 여러 과도기적 한계가 존재합니다. 복잡한 시스템 통합, 모델 자체의 안정성 문제, 그리고 무엇보다 기존의 '긴 컨텍스트'와 'RAG'가 이미 충분히 강력하고 효율적인 대안을 제공하고 있기 때문이죠.


'기억'을 심어주는 기술들


LLM의 '기억상실증' 문제를 해결하기 위해 개발자들은 정말 똑똑하고 다양한 아이디어들을 시도하고 있어요. 크게 세 가지 방식으로 접근하고 있는데, 마치 우리 뇌에 기억을 심어주는 것과 비슷하다고 생각하면 됩니다.


컨텍스트 창 늘리기


가장 직관적인 방법은 LLM의 '컨텍스트 창(Context Window)' 자체를 엄청나게 늘리는 거예요. 컨텍스트 창은 LLM이 한 번에 기억하고 처리할 수 있는 정보의 양을 말하는데요. 예전에는 몇백 단어 수준이었다면, 이제는 백만 개, 심지어 이백만 개 이상의 '토큰(단어 또는 글자 단위)'까지도 한 번에 처리할 수 있게 됐어요.

이건 마치 우리 머릿속에 더 큰 하드 드라이브를 달아서 한 번에 더 많은 정보를 집어넣는 것과 같아요. LLM이 더 많은 대화 내용을 통째로 기억할 수 있게 되면서, 사용자는 매번 반복해서 설명할 필요가 없어졌죠. AI 회사 입장에서도 모델 자체는 '건망증 천재' 그대로 두면서도, 훨씬 긴 대화를 처리할 수 있게 된 거고요. 물론, 이렇게 긴 창을 사용하는 데는 여전히 비용이 많이 든다는 한계가 있긴 해요.


'외부 기억 장치' 달기


두 번째 방법은 LLM 자체의 기억력 대신, LLM 밖에 '외부 기억 장치'를 다는 거예요. 마치 우리 스마트폰에 사진첩이나 메모 앱이 있어서 중요한 내용을 따로 저장해두는 것처럼요. LLM은 그때그때 대답만 하고, 대화 기록이나 중요한 정보는 이 외부 기억 장치에 저장하는 거죠.


가장 대표적인 예가 바로 ChatGPT의 'Memory' 기능이에요. 이 기능은 대화 중에 알려준 선호도나 특정 사실들을 저장해뒀다가, 나중에 다시 대화할 때 자동으로 불러와서 답변에 반영해줘요.


사용자 입장에서 '나를 기억하는 AI'와 대화하는 것처럼 느껴지면서 훨씬 편리하고 개인화된 경험을 할 수 있어요. 또한 AI 회사 입장에서 모델을 효율적으로 운영하면서도 사용자에게 더 좋은 개인화 서비스를 제공할 수 있게 됩니다.


이처럼 '모델은 건망증 천재여도 괜찮아, 중요한 건 우리가 기억할게!'라는 접근 방식이 바로 '서비스 차원의 상태화'예요.


RAG로 정보 보강하기


마지막 세 번째는 LLM이 모든 것을 직접 기억하는 대신, '똑똑한 비서'를 두는 방법이에요. 이 비서가 바로 RAG(Retrieval-Augmented Generation) 기술인데요. RAG는 LLM이 답변을 만들기 전에 외부 데이터베이스나 문서에서 필요한 정보를 검색해서 가져와 LLM에게 건네주는 역할을 해요.


예를 들어, "최신 AI 기술 트렌드에 대해 알려줘"라고 물으면, RAG 비서가 최신 뉴스나 논문을 검색해서 중요한 정보를 찾아 LLM에게 전달해주는 거죠. 그러면 LLM은 그 정보를 바탕으로 훨씬 정확하고 풍부한 답변을 할 수 있게 돼요.


이 방법은 '긴 컨텍스트'나 '외부 기억 장치'만으로는 부족할 수 있는, 시시각각 변하는 정보나 특정 전문 분야의 지식을 LLM이 실시간으로 활용할 수 있게 해줘요. 마치 시험 볼 때 옆에서 필요한 자료를 바로바로 찾아주는 참고서 같다고 할 수 있죠.


LLM은 결국 '스테이트풀'로 가고 있는가?


자, 앞에서 LLM의 '기억상실증'을 해결하기 위한 세 가지 똑똑한 방법들을 살펴봤어요. 그럼 이제 핵심 질문을 던져볼 차례예요. "그렇다면 LLM은 결국 '스테이트풀(Stateful)'한, 즉 스스로 모든 대화 내용을 기억하고 다음 답변에 반영하는 형태로 진화하고 있는 걸까요?"


정답은 '절반만 맞다'입니다.


사실 '스테이트풀 LLM'이라는 말은 두 가지 의미로 해석될 수 있거든요.

모델 자체의 '진정한 기억력': LLM이라는 인공지능 모델 자체가 대화가 진행될수록 내부적으로 학습해서 자신의 지식이나 가중치를 실시간으로 바꾸고, 이전 대화 내용을 스스로 영구적으로 기억하는 것을 의미해요. 마치 사람의 뇌가 새로운 경험을 통해 계속 변화하는 것처럼요.

서비스 차원의 '외부 기억 장치': 이건 앞에서 설명했듯이, LLM 모델 자체는 예전처럼 '건망증 천재'로 두되, 서비스(챗봇 앱이나 웹사이트)에서 별도의 외부 저장 공간에 대화 내용을 기록하고 필요할 때마다 LLM에게 다시 전달해주는 방식이에요. ChatGPT의 'Memory' 기능이 바로 여기에 해당하죠.


현재까지는 1번처럼 LLM 모델 자체가 '진정한 기억력'을 가지는 방향으로의 완전한 전환은 아직 초기 단계에 있어요. 기술적으로도 매우 어렵고, 거대한 LLM을 실시간으로 계속 변화시키는 데는 엄청난 비용과 복잡성이 따르기 때문이에요.


하이브리드(Hybrid)가 대세


그럼 지금 LLM 컨텍스트 기술의 진짜 트렌드는 무엇일까요? 바로 '하이브리드(Hybrid) 방식'이에요. 여러 기술들을 섞어서 최적의 효과를 내는 거죠.

초장문 컨텍스트: LLM 자체의 '컨텍스트 창'을 최대한 늘려서 한 번에 기억할 수 있는 정보의 양을 늘리고 있습니다.

외부 장기 메모리: 서비스 차원에서 대화 기록이나 사용자 선호도를 외부 저장 공간에 차곡차곡 쌓아둡니다. 그리고 필요할 때마다 LLM에게 꺼내서 보여주게 됩니다.

RAG(검색 증강 생성): 여기에 더해, 필요한 정보는 외부 문서나 데이터베이스에서 실시간으로 검색해서 LLM에게 제공합니다.


이 세 가지 기술이 삼박자를 이루며 LLM 서비스의 '기억력'을 극대화하고 있는 거예요. 그래서 "LLM은 스테이트풀로 간다"기보다는, "서비스는 점점 '기억'을 품고, 모델은 '긴 창'을 얻으며, 시스템은 RAG로 보완하는 혼합형이 주류"라고 말하는 것이 더 정확하답니다!


기억을 가진 AI의 미래


이제 LLM 컨텍스트 기술이 '긴 컨텍스트(스테이트리스)'와 '외부 메모리(스테이트풀)', 그리고 'RAG'가 결합된 하이브리드(Hybrid) 방식으로 발전하고 있다는 것을 알게 됐어요. 그럼 이런 기술 발전이 우리의 일상과 미래에 어떤 놀라운 변화를 가져올까요?


나를 기억하는 AI, 더 이상 꿈이 아니다!


가장 큰 변화는 AI가 단순히 질문에 답하는 도구를 넘어, '나를 기억하는 동반자'로 진화한다는 점이에요. ChatGPT의 'Memory' 기능처럼, AI가 내가 좋아하는 것, 싫어하는 것, 중요한 정보들을 스스로 기억하고 다음에 대화할 때 반영해준다면 얼마나 편리할까요?


사용자에게는 어떤 의미일까요?

매번 처음부터 설명할 필요 없이, AI가 내 맥락과 선호도를 이해하고 맞춤형 정보를 제공해줘요. 마치 오랫동안 알고 지낸 비서나 친구처럼요. AI가 과거 대화를 기억하기 때문에, 더 복잡하고 연속적인 주제에 대해 심도 깊은 논의가 가능해집니다. 또한 반복적인 정보 입력 없이 바로 본론으로 들어갈 수 있어, 시간과 노력을 아낄 수 있어요.


AI 회사들에게는 어떤 의미일까요?

물론 AI 회사는 이런 '기억' 기능을 구현하기 위해 더 복잡한 시스템을 구축해야 해요. '긴 컨텍스트'를 다루는 기술, 외부 메모리를 효율적으로 관리하는 기술, 그리고 RAG를 통한 실시간 정보 검색 기능을 모두 통합해야 하죠. 하지만 이런 투자는 결국 더 강력하고 유용한 AI 서비스를 만들어내는 발판이 될 거예요.


고객 만족도 향상: 개인화된 서비스는 사용자 만족도를 높여주고, 이는 결국 더 많은 사용자 유치로 이어질 거예요.

새로운 비즈니스 기회: 사용자의 기억을 기반으로 한 맞춤형 추천, 자동화된 에이전트 서비스 등 새로운 비즈니스 모델을 창출할 수 있죠.


'기억'을 가진 AI 에이전트의 시대

이런 하이브리드 기술의 발전은 'AI 에이전트' 시대의 서막을 알리고 있어요. AI 에이전트는 단순히 대화만 하는 것을 넘어, 사용자를 대신해 다양한 작업을 수행하고, 심지어 스스로 학습하며 성장하는 AI를 말해요. LangGraph와 같은 '에이전트 운영 기술'들은 AI가 장기적인 목표를 가지고, 필요한 정보를 스스로 찾아 학습하며, 심지어 '휴면 학습(Sleep-time learning)'을 통해 우리가 잠든 사이에도 똑똑해질 수 있도록 돕고 있답니다.


결론


지금까지 우리는 LLM이 겪어왔던 '기억'의 딜레마와 이를 극복하기 위한 다양한 기술적 시도들을 살펴보았습니다. '건망증 천재'였던 LLM은 이제 단순히 프롬프트를 처리하는 기계를 넘어, '기억을 가진 지능형 동반자'로 진화하고 있습니다.


이러한 변화는 LLM이 특정 기술 하나에 의존하기보다, 긴 컨텍스트(스테이트리스)와 외부 메모리(스테이트풀), 그리고 RAG 기술이라는 세 가지 강력한 축을 결합하는 하이브리드(Hybrid) 구조를 채택하면서 가능해졌습니다. 이는 AI의 '기억'이 더 이상 단일한 기능이 아니라, 시스템 전반에 걸쳐 유기적으로 작동하는 새로운 패러다임이 되었음을 의미합니다.


결국 LLM 컨텍스트 기술의 발전은 단순한 성능 향상을 넘어, 인간과 AI의 근본적인 관계를 재정의하고 있습니다. 이제 AI는 우리가 누구인지, 무엇을 원하는지, 어떤 대화를 나누었는지 기억하며 더 깊은 맥락을 이해하고, 우리의 삶과 업무를 더욱 효율적이고 개인화된 방식으로 도울 준비를 마쳤습니다. 앞으로의 AI는 단발성 질문에 답하는 도구를 넘어, 우리의 맥락을 이해하고 함께 성장하며, 새로운 가치를 창출하는 진정한 파트너가 될 것입니다.

keyword
작가의 이전글AI 시대의 러다이트 운동이 다시 일어날까