#AI산업혁명
스스로 진화하는 AI의 서막 – MIT의 ‘SEAL’ 프레임워크가 의미하는 것
글로벌연합대학교 인공지능융합연구소장
버지니아대학교 이현우 교수
1. 인공지능의 정체를 깨는 발명
2025년 6월, MIT는 인공지능(AI) 분야에 또 하나의 지각변동을 일으켰다. 기존의 대형언어모델(LLM)이 지닌 한계를 정면으로 돌파하는 새로운 프레임워크 ‘SEAL(Self-Adapting Language Models)’을 공개한 것이다. 이는 단순히 또 하나의 기술 발표로 그치지 않았다. SEAL은 기존 AI가 지닌 가장 구조적인 문제, 즉 **“외부의 지시 없이는 스스로 학습하고 적응하지 못한다”**는 제약을 과감하게 무너뜨렸다.
오늘날 ChatGPT, Claude, Gemini 등으로 대표되는 생성형 언어 모델은 방대한 학습 데이터와 고성능 하드웨어를 바탕으로 뛰어난 문장 생성 능력을 갖췄다. 하지만, 새로운 분야나 정보가 주어질 경우 인간의 개입 없이 스스로 적응하거나 내면화하는 능력은 매우 제한적이었다. ‘추론은 가능하지만, 변화는 불가능한 존재’ — 이것이 지금까지의 LLM이었다. MIT의 SEAL은 이 고정관념에 정면으로 도전했다. 인간의 손을 빌리지 않고도 스스로 학습 전략을 설계하고, 학습 데이터까지 생산해 내부 가중치를 조정하는 능력을 언어 모델에 부여하는 데 성공한 것이다.
2. 자기 수정을 통한 자율학습: SEAL의 작동 원리
SEAL의 혁신은 ‘자가 학습’이라는 말보다 구체적이고 정교하다. 핵심은 바로 ‘자기 수정(Self-edit)’이다. 이 개념은 단순히 문장을 고치거나 오답을 교정하는 수준이 아니다. SEAL은 새로운 문서를 접하면 이를 스스로 학습 교재로 재구성하고, 어떤 학습 전략이 가장 효과적인지를 판단한 후, 학습률이나 데이터 구조, 하이퍼파라미터까지 직접 설계해간다. 다시 말해, 교사가 따로 없는 자율 학습생이 되어가는 것이다.
MIT의 조 파리 박사과정 연구원은 이 점을 매우 직관적으로 설명한다. “SEAL은 모델에게 스스로 공부 계획을 짜고 교재를 만들 수 있도록 가르치는 방식이다.” 이는 단지 정보를 정리하거나 저장하는 수준이 아니다. 실제로 SEAL은 새로운 정보를 모델의 가중치에 반영함으로써, 지식을 구조화하고 행동 패턴에 영향을 주는 수준까지 모델을 변화시킨다.
SEAL은 두 가지 학습 루프를 이용해 이 과정을 운영한다. 내부 루프에서는 임시로 가중치를 수정하고 이를 바탕으로 학습 효과를 실험한다. 이후 외부 루프에서는 이 수정이 실제 성능 향상으로 이어졌는지를 평가하고 보상을 부여한다. 시간이 흐를수록 모델은 스스로 어떤 방식의 학습이 유의미한지 인지하며 전략을 발전시킨다.
3. 성능 실험: ‘지식 내재화’와 ‘소수 예시 일반화’
이론적 타당성만으로는 혁신이 아니다. MIT 연구진은 SEAL의 효과를 **지식 내재화(Knowledge Incorporation)**와 소수 예시 일반화(Few-shot Generalization) 두 가지 실험을 통해 입증해냈다.
먼저, ‘지식 내재화’는 주어진 문단에서 사실을 추출해 이를 모델의 내적 구조로 통합함으로써, 원래 문장을 보지 않고도 관련 질문에 답할 수 있게 하는 기술이다. 기존의 라마 3.2-1B 모델은 인간이 만든 학습 데이터로도 약간의 성능 개선만 보였지만, SEAL의 자기 수정 기반 합성 데이터를 적용했을 때 정확도가 47%까지 상승했다. 이는 최신 GPT-4.1이 생성한 데이터보다도 우수한 결과였다.
두 번째는 ‘소수 예시 일반화’ 실험이다. 여기에 사용된 ARC(추상적 추론 퍼즐) 과제는 복잡한 시각적 추론을 요구하는 테스트로, 일반적인 LLM이 어려워하는 분야다. SEAL은 단 2~3개의 데모 예시만을 보고 자체 훈련 전략을 설계한 뒤, 스스로 데이터를 증강하며 학습해 기존 모델보다 3배 이상 높은 72.5%의 정답률을 기록했다. 이는 AI가 자율적으로 개념을 일반화하고 창조적 방식으로 문제를 해결할 수 있음을 보여주는 강력한 증거다.
4. AI 에이전트의 조건: 스스로 배우는 능력
SEAL의 등장은 AI 에이전트 개발에도 중요한 변화를 불러올 것이다. 에이전트는 단순한 답변 시스템이 아니라, 환경과 상호작용하며 학습하고 행동하는 자율 주체이다. 이들이 진정한 의미의 에이전트가 되기 위해서는 고정된 지식에 안주하는 것이 아니라, 변화에 유연하게 반응하고 축적된 경험을 기반으로 다음 행동을 결정할 수 있어야 한다.
그런 점에서 SEAL은 결정적 전환점이다. 인간이 제공한 데이터 없이도 스스로 ‘학습 신호’를 만들어낼 수 있는 능력은 에이전트가 장기적으로 적응하고 성장할 수 있는 기반을 만든다. 예를 들어, AI가 특정 분야의 논문이나 보고서를 수집하고, 거기서 사실관계나 맥락을 추출해 지식으로 재편성할 수 있다면, 인간의 주목을 받지 못한 희귀 분야에서도 의미 있는 성능 향상이 가능하다. 이는 교육, 금융, 연구개발 등 다양한 산업에서 지속적이고 확장 가능한 AI 시스템의 조건을 갖추게 한다.
5. 한계와 제언: SEAL이 바꿀 것과 남은 과제
물론 SEAL이 모든 문제를 해결하는 ‘만능 도구’는 아니다. 반복적인 자기 수정 과정에서 모델이 과거에 학습했던 지식을 잃어버리는 망각(Catastrophic Forgetting) 문제가 여전히 존재한다. 이로 인해 SEAL은 자율성이라는 장점을 갖는 동시에, 지나친 정보 통합이 오히려 기존 성능을 저해할 위험도 내포하고 있다.
이를 방지하기 위해 MIT 연구진은 하이브리드 전략을 제안한다. 즉, 모든 지식을 가중치에 내재화하지 말고, 기업이 통합할 ‘가치 있는 지식’만 선택적으로 내재화하고, 나머지는 RAG(검색 기반) 시스템으로 관리하자는 것이다. 또한, 실시간 업데이트가 어렵다는 점을 고려해 지속적인 데이터 수집 후 예약된 시간에 수정 수행 방식으로 현실성을 확보하는 방법도 제시되었다.
SEAL이 궁극적으로 보여주는 것은 하나의 가능성이다. “AI는 사전학습으로 끝나는 것이 아니라, 이후에도 학습할 수 있어야 한다.” 이것은 단순한 성능 향상의 문제가 아니다. 이는 AI가 인간처럼 배우고, 적응하며, 성장할 수 있는 존재로 진화하고 있다는 선언이며, 더 나아가 비용 효율적이고 지속 가능한 AI 생태계로의 진입점이기도 하다.
MIT가 내놓은 SEAL은 현재 깃허브에 공개되어 있으며, 앞으로 수많은 연구자와 기업들이 이 프레임워크를 실험하고 확장할 것으로 예상된다. 언젠가 인간의 개입 없이도 스스로 생각하고 학습하며 적응하는 AI가 우리 사회 곳곳에서 움직이는 날이 올 것이다. 그 시작점에 SEAL이 있다.
참고: MIT 연구진 발표 및 arXiv 논문(2025.06.23)
작성: 이현우 교수 / 인공지능융합연구소