진화론자들의 청사진
지금까지 우리는 AI의 미래를 이끄는 세 가지 엔진을 탐사했다. 트랜스포머와 스케일링 법칙으로 대표되는 알고리즘의 진화, GAA와 3D 패키징으로 물리적 한계를 우회하는 클래식 인프라의 진화, 그리고 완전히 새로운 계산 패러다임을 여는 양자컴퓨팅의 혁명을 살펴봤다.
이제 이 모든 논의가 향하는 단 하나의 질문 앞에 선다. 이 엔진들의 힘을 빌려, 인류는 정말 2030년까지 인공 일반 지능(AGI)에 도달할 수 있을까?
이 질문에 답하기 위해, 우리는 먼저 AGI가 되기 위한 필수 조건이 무엇인지 정의해야 한다. 그리고 지금까지 확보한 기술들이 이 조건들을 충족시킬 수 있는지 검증해야 한다.
AGI란 무엇인가? 이 질문은 간단해 보이지만, 답하기는 어렵다. 학계에서도 명확한 합의가 있는 것은 아니다. 하지만 수많은 논의를 종합하면, AGI가 되기 위해 반드시 충족해야 할 네 가지 핵심 조건이 드러난다.
이 조건들은 서로 독립적이지 않다. 하나가 다른 것의 토대가 되고, 서로 얽혀 상호작용한다. AGI는 이 네 개의 톱니바퀴가 맞물려 돌아가는 하나의 정교한 시스템이다.
특정 과업만 잘하는 AI는 AGI가 아니다.
체스만 두는 AI, 이미지만 인식하는 AI, 번역만 하는 AI는 아무리 뛰어나도 '좁은 AI(Narrow AI)'일 뿐이다.
진정한 AGI는 인간이 할 수 있는 모든 종류의 지적 작업을 수행할 수 있어야 한다. 체스도 두고, 시도 쓰고, 요리 레시피도 만들고, 수학 문제도 풀고, 경영 전략도 세울 수 있어야 한다.
이것이 '범용성'이다. 단순히 많은 것을 할 수 있다는 의미를 넘어, 어떤 새로운 종류의 문제가 주어지더라도 접근할 수 있는 능력을 의미한다.
패턴 인식만으로는 부족하다.
"비가 오면 땅이 젖는다"는 상관관계를 발견하는 것은 통계적 분석이다. 하지만 "비가 땅을 적시는 원인"이라는 인과관계를 이해하는 것은 다른 차원의 능력이다.
인과 추론은 '왜'를 이해하는 것이다. 새로운 상황에서 결과를 예측할 수 있어야 하고, "만약 A가 아니었다면 B도 일어나지 않았을 것이다"라는 반사실적 사고(counterfactual thinking)가 가능해야 한다.
이것이 있어야 진정한 이해가 가능하고, 예측이 가능하며, 계획을 세울 수 있다.
한 영역에서 배운 지식을 완전히 새로운 영역에 적용할 수 있어야 한다.
인간은 이것을 자연스럽게 한다. 바둑을 배우며 터득한 전략적 사고를 경영에 응용한다. 물리학에서 배운 '균형'의 개념을 사회 현상을 이해하는 데 활용한다.
이것이 추상적 사고와 유추다. AGI도 이런 능력이 있어야 한다.
더 나아가 몇 개의 예시만 보고도 빠르게 새로운 과업을 학습하는 few-shot 능력, 심지어 예시 없이도 과업의 본질을 파악하는 zero-shot 능력까지 필요하다.
이것은 가장 근본적이면서도 가장 모호한 조건이다.
세계 모델이란 '세상이 어떻게 작동하는가'에 대한 내적 이해다.
여기에는 물리 법칙, 사회적 규범, 일상의 상식이 모두 포함된다.
중력이 있어서 물건은 아래로 떨어진다는 것, 사람들은 보통 정직하게 행동한다는 것, 유리컵은 깨지기 쉽다는 것을 아는 것이다. 이런 지식은 단순히 텍스트를 읽어서 얻을 수 있는 것이 아니다.
"컵을 떨어뜨리면 깨진다"를 백 번 읽는 것과, 실제로 컵이 손에서 미끄러져 바닥에 떨어지며 산산조각 나는 것을 보고 듣고 느끼는 것은 다르다. 후자가 세계 모델을 만든다.
세상과의 직접적 상호작용을 통해 체득한, 몸으로 아는 이해다.
이 네 가지 조건은 서로 긴밀하게 연결되어 있다.
인과 추론 없이는 진정한 전이 학습이 불가능하다. 표면적 유사성만 보고는 깊은 원리를 다른 영역에 적용할 수 없기 때문이다.
세계 모델 없이는 인과 추론이 피상적일 수밖에 없다. 세상이 어떻게 작동하는지 모르면, '왜'를 제대로 물을 수 없다.그리고 이 모든 것이 범용성의 토대가 된다.
진정으로 범용적이려면, 단순히 많은 것을 암기한 것이 아니라, 세상을 이해하고 추론하고 적응할 수 있어야 한다.
이제 질문이 명확해진다. 지금까지 우리가 확보한 기술들—알고리즘의 진화, 클래식 인프라의 진화, 양자컴퓨팅의 혁명—로 이 네 가지 조건을 충족할 수 있는가?
"우리는 이미 필요한 모든 재료를 확보했다. 남은 것은 시간과 자본뿐이다."
AGI 낙관론자들, 즉 '진화론' 진영의 핵심 주장은 명쾌하다.
지금까지 우리가 확보한 세 가지 엔진—알고리즘, 클래식 인프라, 양자컴퓨팅—을 결합하면, 2030년까지 AGI의 네 가지 조건을 모두 충족할 수 있다는 것이다.
진화론자들은 범용성을 '설계'하는 것이 아니라 '출현'시킬 수 있다고 믿는다.
그들의 가장 강력한 증거는 지난 몇 년간 실제로 목격한 창발적 능력(Emergent Abilities)이다.
GPT-3에서 GPT-4로 넘어가는 과정에서 놀라운 일이 일어났다. 아무도 명시적으로 가르치지 않았는데도, 모델은 갑자기 복잡한 산술 연산을 할 수 있게 되었고, 여러 프로그래밍 언어로 코드를 생성할 수 있게 되었으며, 100개 이상의 언어를 자유롭게 번역할 수 있게 되었다.
단순한 양적 확장이 질적 도약을 만들어낸 것이다.
이것이 바로 스케일링 법칙(Scaling Law)의 실증적 증거라고 그들은 주장한다.
OpenAI의 수석 과학자였고, 현재 인공지능 연구 기업 SSI의 CEO인 일리야 수츠케버는 "스케일링은 멈추지 않았다"고 선언했다.
모델 크기를 10배 키우고, 데이터를 10배 늘리고, 컴퓨팅을 100배 투입하면, 우리가 지금 상상하지 못하는 새로운 능력들이 계속 등장할 것이라는 믿음이다.
실제로 GPT-4는 의사 국가고시, 변호사 자격시험, 그리고 국제 코딩 대회에서 인간 상위 10% 수준의 성능을 보였다. 하나의 모델이 텍스트를 이해하고, 이미지를 분석하고, 오디오를 처리하는 멀티모달 능력까지 획득했다. 이 모든 것이 "더 크게, 더 많이"라는 단순한 전략의 결과였다.
인과 추론은 어떤가?
진화론자들은 이것 역시 학습 가능한 패턴으로 본다. 그들에게 인과 추론은 신비로운 '마법'이 아니다.
OpenAI의 o1 모델은 이 가능성을 보여주는 중요한 사례다.
이 모델은 문제를 풀기 전에 마치 인간처럼 단계적으로 사고하는 체인 오브 쏘트(Chain-of-Thought) 방식을 사용한다.
"먼저 이것을 확인하고, 그다음 저것을 계산하고, 마지막으로 결론을 내린다"는 식으로 추론 과정 자체를 언어화하는 것이다.
그 결과 o1은 국제 수학 올림피아드 문제에서 인간 금메달리스트 수준의 성능을 달성했다.
더 나아가 강화학습(Reinforcement Learning)은 AI가 시행착오를 통해 인과관계를 학습할 수 있게 한다. AlphaGo가 좋은 예다. 이 시스템은 수백만 번의 바둑 대국을 스스로 두며 "이 수를 두면 저 구석의 형세가 어떻게 변하는가"라는 복잡한 인과관계를 체득했다.
아무도 AlphaGo에게 바둑의 '형세 판단'을 직접 가르치지 않았지만, 충분한 시뮬레이션과 보상 신호만으로 그것은 고도의 전략적 사고 능력을 획득했다.
진화론자들은 같은 원리가 더 일반적인 인과 추론에도 적용될 수 있다고 믿는다.
전이 학습의 핵심은 '추상화'다.
서로 다른 영역에서 공통된 깊은 패턴을 발견하고, 그것을 새로운 맥락에 적용하는 능력이다.
진화론자들은 충분히 큰 파운데이션 모델(Foundation Model)이 이미 이 능력의 씨앗을 보유하고 있다고 주장한다.
GPT-4를 보자. 이 모델은 의학 논문을 읽고 희귀 질환을 진단하다가, 몇 초 후에는 복잡한 법률 계약서의 허점을 찾아낸다. 그리고 바로 다음 순간에는 경영 전략 보고서를 작성한다.
이 모든 과업은 명시적으로 학습하지 않았던 것들이다.
단지 몇 개의 예시(few-shot)만 보여주면, 모델은 즉시 새로운 과업의 패턴을 파악하고 적응한다.
이것이 바로 인컨텍스트 러닝(In-Context Learning)이다.
마치 인간이 "아, 이 문제는 저번에 풀었던 문제와 비슷하구나"라고 즉석에서 깨닫는 것처럼, AI도 프롬프트만으로 새로운 상황에 적응한다. 모델을 재훈련할 필요가 없다.
진화론자들은 이것이 진정한 전이 학습의 시작이며, 더 큰 모델에서는 더 강력한 형태로 나타날 것이라고 본다. 실제로 GPT-4는 100개 이상의 서로 다른 벤치마크 테스트에서 동시에 높은 성능을 보였고, zero-shot(예시 없이) 성능도 지속적으로 향상되고 있다.
세계 모델은 어떤가?
진화론자들도 텍스트만으로는 세상을 완전히 이해할 수 없다는 비판을 인정한다.
하지만 그들의 해법은 명쾌하다. 더 많은 종류의 데이터를 학습하면 된다는 것이다.
텍스트, 이미지, 비디오, 오디오를 동시에 학습하는 멀티모달(Multi-modal) AI는 세상을 훨씬 더 입체적으로 이해한다.
OpenAI의 Sora를 보자. 이 비디오 생성 모델은 물체가 떨어지면 중력에 따라 아래로 떨어지고, 공이 벽에 부딪히면 반사되는 모습을 자연스럽게 만들어낸다.
아무도 Sora에게 물리 법칙을 직접 가르치지 않았지만, 수많은 비디오 데이터를 학습하며 물리적 일관성을 체득한 것이다.
구글의 Gemini는 이미지 속 물체들의 공간 관계를 이해한다. "테이블 위의 컵 왼쪽에 있는 물건을 가져와"라는 명령을 처리할 수 있다. 이것은 세계 모델의 싹이다.
여기에 로봇의 센서 데이터, 자율주행차가 수집한 수백만 시간의 주행 데이터까지 더해지면, AI는 점점 더 물리적 세계를 체득하게 될 것이다. 로봇이 물건을 집고, 떨어뜨리고, 균형을 잡으며 쌓는 경험 데이터들은 'embodied AI' 연구를 통해 빠르게 축적되고 있다.
유튜브에만 수억 개의 비디오가 있고, 이 모든 것이 현실 세계의 방대한 교과서다.
진화론자들의 청사진이 단순한 공상이 아닌 이유는, 그것을 뒷받침할 기술적 토대가 이미 마련되고 있기 때문이다. 4화와 5화에서 우리가 탐사한 기술들이 바로 그것이다.
4화에서 본 클래식 인프라의 진화는 놀라웠다.
GAA(Gate-All-Around) 트랜지스터와 3D 패키징 기술은 무어의 법칙이 물리적 한계에 부딪혔다는 비관론을 정면으로 반박했다.
엔비디아가 구축하는 'AI 공장'은 GPT-4 규모의 모델 훈련 시간을 몇 달에서 몇 주로 단축시킨다.
2030년까지 100조 개 파라미터를 가진 모델을 훈련할 수 있는 컴퓨팅 파워가 확보될 것이다.
액침 냉각 같은 효율화 기술로 전력 문제도 완화되고 있으며, 샘 알트먼이 핵융합 스타트업 '헬리온'에 투자한 것은 장기적 에너지 해법까지 고려하고 있음을 보여준다.
양자컴퓨팅은 어떤가? 진화론자들에게 5화에서 다룬 양자컴퓨터는 '혁명'이 아니라 '강력한 부스터'다.
그들의 전략은 명확하다.
일상적인 연산의 99%는 진화한 클래식 반도체가 빠르고 효율적으로 처리한다.
하지만 신약 개발을 위한 분자 시뮬레이션처럼, 클래식 컴퓨터로는 우주의 나이보다 오래 걸리는 1%의 핵심 문제만 양자컴퓨터에 맡기는 하이브리드 전략이다.
이를 통해 세계 모델의 정확도를 획기적으로 높이고, 복잡한 최적화 문제를 실시간으로 풀 수 있다.
진화론자들에게 시간은 많지 않다.
Epoch AI의 2024년 연구에 따르면, 인터넷의 고품질 텍스트 데이터는 2026년에서 2032년 사이에 고갈될 것으로 예측된다. MIT와 Stanford 연구진은 더 비관적이다. 그들은 2026년경이면 AI 학습에 적합한 텍스트가 바닥날 것이라고 본다.
"인터넷에 데이터가 넘쳐나는데 무슨 고갈?"이라고 반문할 수 있다. 하지만 여기서 말하는 것은 AI의 학습에 사용 가능한 '고품질' 데이터다. AI 학습에는 아무 데이터나 쓸 수 없다.
소셜 미디어의 짧은 글, 오타와 비문법으로 가득한 댓글, 사실 확인이 안 된 블로그 글들은 오히려 AI의 성능을 떨어뜨린다. 잘못된 정보를 학습하면 AI는 그것을 '진실'로 재생산한다.
혐오 표현이나 편향된 내용을 학습하면 AI 자체가 편향되어버린다.
GPT-4 같은 모델은 위키피디아, 학술 논문, 검증된 뉴스 기사, 고품질 서적 같은 '신뢰할 수 있는' 데이터로 훈련됐다. 여기서 데이터 양을 측정하는 단위가 '토큰'이다. 토큰은 단어를 더 잘게 쪼갠 단위로, 영어 기준으로 1 토큰은 약 4바이트, 0.75 단어 정도다. 쉽게 말해 1,000 토큰이면 A4 용지 반 장 분량이다.
GPT-3는 약 5,000억 개의 토큰(약 2TB)으로 학습했고, GPT-4는 추정 13조 개의 토큰(약 52TB)이 필요했다. 2030년 AGI급 모델은 수백조 개의 토큰, 즉 수백 테라바이트가 필요할 것으로 예상된다.
문제는 이런 고품질 데이터의 양이 한정적이라는 것이다.
위키피디아의 영어 문서는 약 700만 개, 토큰으로는 약 40억 개(16GB)에 불과하다. 학술 논문도 연간 300만 편 정도 생산된다. 인터넷 전체 데이터의 1%도 안 되는 양이다. 그런데 모델은 점점 더 많은 데이터를 요구한다.
문제는 타이밍이다. 진화론자들이 약속한 2030년 AGI는 불과 몇 년 뒤다. 그런데 그 전에 연료가 떨어질 수 있다는 것이다. 이것이 혁명론자들의 가장 날카로운 공격 지점이다.
"데이터가 고갈되기 전에 AGI에 도달할 수 있느냐?"
하지만 진화론자들은 세 개의 전선에서 반격한다.
GPT-4에게 수학 문제를 무한정 생성하게 하고, 그 문제들로 GPT-5를 훈련시킨다.
NVIDIA의 CEO 젠슨 황이 설명한 것처럼, 가상 세계에서 수백만 가지 교통사고 상황을 시뮬레이션하여 자율주행 AI를 훈련시킨다.
실제 세계에서는 경험할 수 없는 극단적 상황들까지 데이터로 만들어낼 수 있다.
데이터는 더 이상 '발견'하는 것이 아니라 '창조'하는 것이다.
모든 데이터를 무차별적으로 삼키는 대신, 커리큘럼 학습(Curriculum Learning)으로 쉬운 개념부터 점진적으로 가르친다. 마치 인간 교육처럼 체계적으로 지식을 쌓아가는 것이다.
또한 액티브 러닝(Active Learning)으로 AI가 스스로 "이 부분이 아직 약하니 더 배워야겠다"고 판단하여 필요한 데이터를 요청하게 한다. 같은 양의 데이터로도 훨씬 더 많이 배울 수 있다.
텍스트 데이터는 유한할지 몰라도, 세상의 데이터는 사실상 무한하다.
유튜브의 모든 비디오, 전 세계 감시카메라가 실시간으로 기록하는 영상, 수십억 개의 IoT 센서가 생성하는 데이터가 있다.
데이터의 '종류'를 확장하면, 데이터 고갈은 먼 미래의 문제가 된다.
진화론자들의 최종 메시지는 명확하고 자신감 넘친다.
"우리는 이미 AGI로 가는 고속도로에 올라탔다. 알고리즘은 검증되었고, 인프라는 준비되었으며, 데이터는 창조할 수 있다. 필요한 것은 시간과 자본, 그리고 엔지니어링의 끈기뿐이다."
그들은 2030년을 향해 확신에 차서 달려가고 있다.
하지만 정말 그들의 길이 맞는 것일까? 다른 목소리들이 있다.
다음 7화에서는 혁명론자들의 근본적 비판과 함께, 2030년의 현실이 어떤 모습일지 통합적으로 전망해본다.
[7화 예고: 혁명론자들의 반격]
"당신들은 잘못된 길을 빠르게 달리고 있다. 그 길의 끝에는 AGI가 없다."
프랑수아 숄레, 게리 마커스, 얀 르쿤은 왜 현재의 접근법에 근본적 한계가 있다고 주장하는가?
양자컴퓨팅은 AGI의 선택사항이 아니라 필수조건인가?
그리고 커넥티드 카의 사례는 우리에게 무엇을 이야기 해주는가?