DeepSeek가 던진, 덩치 키우기 이후의 질문
많은 사람들은 인공지능을 이렇게 생각한다.
“AI는 모든 걸 알고 있고, 다 기억하고 있다.”
하지만 이건 오해에 가깝다.
지금까지의 인공지능은
기억하는 존재가 아니라 계산하는 존재였다.
질문을 받으면 그때그때 계산으로 답을 만들어낼 뿐,
과거의 경험을 스스로 쌓아두지 않는다.
쉽게 말해
AI는 늘 시험 당일 처음 문제를 푸는 학생과 같았다.
기억하지 못하니 해결책은 단순했다.
더 많은 데이터를 넣고
더 큰 모델을 만들고
더 강한 컴퓨터를 붙이는 것
이 방식은 분명 효과가 있었다.
하지만 시간이 갈수록 문제가 분명해졌다.
성능 향상은 점점 느려지고
전력, 비용, 데이터센터 부담은 폭증했다
이 지점에서 질문이 바뀌기 시작했다.
“AI는 정말 이렇게까지 커져야만 하는가?”
이 질문은 업계 전반에서 조심스럽게 나오고 있었지만,
이를 전면에 내걸다시피 한 곳이 있다.
DeepSeek AI다.
DeepSeek는 OpenAI나 구글과 같은 조건에 있지 않다.
무제한 GPU, 글로벌 클라우드, 막대한 전력과 자본을
동원할 수 없는 현실에 놓여 있다.
그래서 DeepSeek는 다른 선택을 했다.
“덩치를 키우는 경쟁이 아니라,
지능의 구조 자체를 바꾸자.”
이 판단에서 나온 개념이 바로 Engram이다.
Engram은 단순한 저장 기술이 아니다.
AI가 무엇을 기억해야 하는지를 다시 정의한다.
Engram이 저장하지 않는 것:
위키백과식 지식
문장 그대로의 대화 기록
Engram이 남기는 것:
왜 이런 선택을 했는지
어디서 판단이 틀렸는지
어떤 상황에서 이 판단이 효과적이었는지
즉,
정답이 아니라 판단의 흔적을 기억한다.
사람으로 치면
오답 노트가 아니라
생각 과정이 남아 있는 노트에 가깝다.
여기서 자연스러운 의문이 생긴다.
기억이 계속 쌓이면
AI는 오히려 더 헷갈려지지 않을까?
이 문제를 해결하기 위해 등장한 개념이
Sparsity다.
Sparsity는 어렵게 이해할 필요가 없다.
“전부 꺼내지 말고,
지금 필요한 것만 골라 써라.”
도서관에서
모든 책을 한 번에 펼치지 않는 것과 같다.
중요한 점은 이것이다.
Sparsity는 주인공이 아니다.
Engram이라는 기억을
제대로 쓰기 위한 사용 규칙에 가깝다.
Engram과 Sparsity가 결합되면
AI의 발전 방식 자체가 달라진다.
이 구조에서는
AI를 다시 학습시키지 않아도
기억만 업데이트하면 된다.
DeepSeek가 이 방향을 강조하는 이유도 여기에 있다.
덩치 경쟁을 피하면서도 지능을 확장할 수 있는 거의 유일한 길이기 때문이다.
이제 AI의 성능은
얼마나 빠르게 계산하느냐보다
얼마나 잘 저장하고,
얼마나 정확히 꺼내 쓰느냐에 달린다.
이 때문에 중요한 역할을 맡게 된 것이
바로 SSD 같은 저장장치다.
저장소는 더 이상 보조 부품이 아니다.
AI의 장기 기억이 된다.
Engram은 DeepSeek만의 독점 기술은 아니다.
하지만 AI가
'더 커지는 길이 아니라,
더 잘 기억하는 길로 가야 한다'고
가장 분명하게 말한 곳은 DeepSeek다.
이 변화는 단순한 성능 개선이 아니다.
AI는 더 이상 무작정 커질 필요가 없고
지능은 계산량이 아니라 기억의 구조가 되며
AGI는 거대한 모델이 아니라
경험이 누적되는 시스템으로 정의되기 시작했다
AI는 더 이상 커질 필요가 없다.
대신, 경험을 기억해야 한다.
Engram은 AI에게 경험을 남기고,
Sparsity는 그 경험을 제때 쓰게 만든다.
DeepSeek가 던진 이 질문은
AI 이야기로 끝나지 않는다.
우리에게도 같은 질문을 던진다.
우리는 정보를 쌓고 있는가,
아니면 판단을 쌓고 있는가.
세상은 복잡하지만, 핵심은 단순합니다.
저는 당신에게 정보가 아닌 '프레임'을 건넵니다.
- 범뷰(BeomView) -