AI는 왜 갑자기 ‘기억’을 말하기 시작했나

DeepSeek가 던진, 덩치 키우기 이후의 질문

by BeomView

인공지능은 더 이상 커지는 방향으로 발전하지 않는다.

DeepSeek는 '지능은 계산이 아니라 기억'이라는 질문을 던졌다.

AI가 경험을 저장하기 시작하면서, 판의 규칙이 바뀌고 있다.


DDD.JPG


AI는 원래 기억하지 못하는 존재였다

많은 사람들은 인공지능을 이렇게 생각한다.
“AI는 모든 걸 알고 있고, 다 기억하고 있다.”


하지만 이건 오해에 가깝다.


지금까지의 인공지능은
기억하는 존재가 아니라 계산하는 존재였다.
질문을 받으면 그때그때 계산으로 답을 만들어낼 뿐,
과거의 경험을 스스로 쌓아두지 않는다.


쉽게 말해
AI는 늘 시험 당일 처음 문제를 푸는 학생과 같았다.


그래서 AI는 계속 커질 수밖에 없었다

기억하지 못하니 해결책은 단순했다.

더 많은 데이터를 넣고

더 큰 모델을 만들고

더 강한 컴퓨터를 붙이는 것


이 방식은 분명 효과가 있었다.
하지만 시간이 갈수록 문제가 분명해졌다.

성능 향상은 점점 느려지고

전력, 비용, 데이터센터 부담은 폭증했다


이 지점에서 질문이 바뀌기 시작했다.


“AI는 정말 이렇게까지 커져야만 하는가?”


이 질문을 가장 노골적으로 던진 곳, DeepSeek

이 질문은 업계 전반에서 조심스럽게 나오고 있었지만,
이를 전면에 내걸다시피 한 곳이 있다.


DeepSeek AI다.


DeepSeek는 OpenAI나 구글과 같은 조건에 있지 않다.
무제한 GPU, 글로벌 클라우드, 막대한 전력과 자본을
동원할 수 없는 현실에 놓여 있다.


그래서 DeepSeek는 다른 선택을 했다.


“덩치를 키우는 경쟁이 아니라,
지능의 구조 자체를 바꾸자.”


이 판단에서 나온 개념이 바로 Engram이다.


Engram은 ‘지식’을 더 넣자는 이야기가 아니다

Engram은 단순한 저장 기술이 아니다.
AI가 무엇을 기억해야 하는지를 다시 정의한다.


Engram이 저장하지 않는 것:

위키백과식 지식

문장 그대로의 대화 기록


Engram이 남기는 것:

왜 이런 선택을 했는지

어디서 판단이 틀렸는지

어떤 상황에서 이 판단이 효과적이었는지


즉,
정답이 아니라 판단의 흔적을 기억한다.


사람으로 치면
오답 노트가 아니라
생각 과정이 남아 있는 노트에 가깝다.


기억이 많아지면 생기는 또 다른 문제

여기서 자연스러운 의문이 생긴다.


기억이 계속 쌓이면
AI는 오히려 더 헷갈려지지 않을까?


이 문제를 해결하기 위해 등장한 개념이
Sparsity다.


Sparsity는 Engram을 쓰기 위한 규칙이다

Sparsity는 어렵게 이해할 필요가 없다.


“전부 꺼내지 말고,
지금 필요한 것만 골라 써라.”


도서관에서
모든 책을 한 번에 펼치지 않는 것과 같다.


중요한 점은 이것이다.
Sparsity는 주인공이 아니다.


Engram이라는 기억을
제대로 쓰기 위한 사용 규칙에 가깝다.


이 구조가 AI를 완전히 바꾼다

Engram과 Sparsity가 결합되면
AI의 발전 방식 자체가 달라진다.


이 구조에서는

AI를 다시 학습시키지 않아도
기억만 업데이트하면 된다.


DeepSeek가 이 방향을 강조하는 이유도 여기에 있다.
덩치 경쟁을 피하면서도 지능을 확장할 수 있는 거의 유일한 길이기 때문이다.


그래서 AI의 핵심은 GPU에서 ‘기억’으로 이동한다

이제 AI의 성능은
얼마나 빠르게 계산하느냐보다


얼마나 잘 저장하고,
얼마나 정확히 꺼내 쓰느냐에 달린다.


이 때문에 중요한 역할을 맡게 된 것이
바로 SSD 같은 저장장치다.


저장소는 더 이상 보조 부품이 아니다.
AI의 장기 기억이 된다.


이건 기술 트렌드가 아니라 방향 선언이다

Engram은 DeepSeek만의 독점 기술은 아니다.
하지만 AI가
'더 커지는 길이 아니라,
더 잘 기억하는 길로 가야 한다'고
가장 분명하게 말한 곳은 DeepSeek다.


이 변화는 단순한 성능 개선이 아니다.

AI는 더 이상 무작정 커질 필요가 없고

지능은 계산량이 아니라 기억의 구조가 되며

AGI는 거대한 모델이 아니라

경험이 누적되는 시스템으로 정의되기 시작했다


FrameLAB 결론

AI는 더 이상 커질 필요가 없다.
대신, 경험을 기억해야 한다.


Engram은 AI에게 경험을 남기고,
Sparsity는 그 경험을 제때 쓰게 만든다.


DeepSeek가 던진 이 질문은
AI 이야기로 끝나지 않는다.
우리에게도 같은 질문을 던진다.


우리는 정보를 쌓고 있는가,
아니면 판단을 쌓고 있는가.



세상은 복잡하지만, 핵심은 단순합니다.
저는 당신에게 정보가 아닌 '프레임'을 건넵니다.
- 범뷰(BeomView) -


작가의 이전글중국 휴머노이드가 테슬라를 앞섰나