인간만이 할 수 있는 것 들에 대하여
AI가 안 들어가는 곳이 없는 시대입니다. 모델 성능뿐 아니라 진보된 AI 사용 방법론까지 따라가기가 너무 힘듭니다. 그 진보의 마지막 단계에는 AGI(Artificial General Intelligence, 범용 인공지능)가 있습니다. AGI가 뭔지는 AI 선두기업들끼리도 대답이 다르고 정의가 다릅니다. 그런데도 그 AGI를 위해 수조 달러를 묻으면서 경쟁 중입니다.
이 글은 제 주관적인 생각이 많이 들어간 글입니다. 이런 생각을 하는 사람도 있구나, 정도로 읽어주시면 감사하겠습니다.
AGI에 대한 정의는 기업마다 다릅니다.
OpenAI(ChatGPT를 만든 회사)는 대부분의 경제적으로 유용한 작업에서 인간을 능가하는 시스템이라고 정의합니다. 철저하게 경제 가치 중심적 정의입니다. Sam Altman은 2025년 초 "AGI를 어떻게 만드는지 이제 안다"라고 선언했고, 같은 해 말엔 "우리는 AGI를 만들었다"라고 했습니다.
Google DeepMind는 AGI를 단일 임계점이 아닌 레벨로 봅니다.
Emerging → Competent → Expert → Virtuoso → Superhuman의 5단계. 인간이 할 수 있는 모든 인지 능력을 갖춘 시스템이 목표라고 합니다.
Anthropic(Claude를 만든 회사)은 공식적으로 AGI라는 단어 자체를 마케팅 용어로 보고 정의조차 내리지 않았습니다.
공통점은 전부 외부 행동과 성능 지표로 AGI를 정의한다는 것입니다. 내부에서 무슨 일이 일어나는지는 정의에 없습니다. 저는 AI로 돈을 버는 기업가가 아니라 그런지 조금 다른 관점으로 접근해도 괜찮겠다 생각합니다.
AGI는 인간과 같은 통찰과 상상력을 지닌 AI다.
통찰은 기존 패턴의 조합이 아닙니다. 관찰된 데이터 너머에 있는 인과 구조를 파악하는 것입니다. 뉴턴이 사과가 떨어지는 것을 보고 중력을 발견한 건 낙하 데이터를 수백만 개 학습해서 나온 게 아닙니다. 어느 날 떨어진 사과를 보고 만유인력이라는 개념을 본 것입니다.
상상력은 존재하지 않는 것을 내적으로 시뮬레이션하는 능력입니다. 인간은 새를 보고 세상에 없는 비행기를 상상하여 만들었습니다. 지금 AI가 생성하는 건 학습 데이터의 조합이지, 기존 샘플을 벗어난 진짜 새로운 것을 만들지는 못합니다.
LLM(Large Language Model, 대형 언어 모델)은 ChatGPT, Claude, Gemini 같은 우리가 지금 쓰는 AI들의 기반 기술입니다. 지금 LLM의 본질은 어떤 맥락 다음에 나올 확률이 가장 높은 단어를 통계적으로 예측하는 것입니다. 결과가 추론처럼 보이지만, 구조적으로는 초대형 패턴 압축기입니다. 수억 개의 텍스트에서 패턴을 뽑아 그럴듯한 출력을 생성하다 보니 이해처럼 보이는 것입니다.
진짜 이해란 사과가 왜 떨어지는지 물리 법칙을 인과적으로 파악하고 새로운 상황에 적용하는 것입니다.
LLM이 하는 것은 사과, 떨어지다, 왜라는 단어의 조합에서 수백만 개 설명의 패턴을 압축해 그럴듯한 답을 생성하는 것입니다. 결과물이 같아 보이지만 본질이 다릅니다. 기술적으로 LLM이 구조적으로 갖지 못한 것이 네 가지 있습니다.
첫째, 자율적 목표 설정이 불가능합니다.
현재 모든 AI는 외부에서 목표가 주어져야 작동합니다. AGI의 가장 핵심적 특성은 스스로 무엇이 중요한 문제인지 설정하고 탐구하는 것인데, 지금은 없습니다.
둘째, 분포 밖의 변화에 대응하지 못합니다.
학습 데이터에 없는 방식으로 세상이 바뀌면 모델은 대응을 못 합니다. 학습한 범위 안에서는 잘 작동하던 것이 그 범위를 벗어나면 급격히 무너지는 것이 증거입니다.
셋째, 가소성(Plasticity)이 없습니다.
가소성이란 경험에 따라 구조가 바뀌는 능력입니다. 인간의 뇌는 새로운 경험으로 구조 자체가 바뀝니다. 피아노를 오래 배우면 손가락 담당 뇌 영역이 실제로 커지고, 서울 택시기사들의 뇌를 MRI로 찍으면 공간지각 영역이 일반인보다 큽니다. 인간의 뇌는 오늘 새로운 걸 배우면 내일 시냅스가 물리적으로 달라져 있습니다.
반면 LLM은 학습이 끝나는 순간 모든 게 얼어붙습니다. 대화가 끝나면 리셋이고, 배운 것이 축적되지 않습니다.
넷째, 언어가 실제 세계에 맞닿아 있지 않습니다.
LLM은 언어끼리만 연결되어 있습니다. 사과를 만져본 적도, 떨어지는 것을 눈으로 본 적도 없습니다.
전 Meta의 수석 AI 과학자였던 Yann LeCun이 현재 LLM으로는 AGI에 도달할 수 없다고 보는 핵심 이유가 이것입니다. 텍스트만으로는 세상을 이해할 수 없다는 것입니다.
2020년 OpenAI가 스케일링 법칙을 발표했습니다. 데이터, 연산량, 모델 크기를 늘리면 성능이 예측 가능하게 올라간다는 것이고 실제로 작동했습니다. GPT-2에서 GPT-3로 모델 크기가 100배 늘어나자 아무도 예상 못 했던 능력들이 생겼습니다. 코드를 짜고, 언어를 번역하고, 명시적으로 학습하지 않았는데 논리를 추론하기 시작했습니다. 이게 지금 AI 군비경쟁의 핵심 근거입니다.
그런데 2024년 말부터 이 이론을 벗어나기 시작했습니다. 학습에 쓸 인터넷 데이터가 고갈되고, 컴퓨팅을 계속 늘려도 예전만큼 성능이 오르지 않습니다. 스케일링 벽(Scaling Wall)이라는 말이 나오기 시작했고 여기서 업계가 둘로 갈렸습니다.
스케일링 낙관론 — 차원이 바뀌었을 뿐, 계속 간다
기존 학습 방식은 한계에 왔지만, AI가 답하기 전에 더 오래 생각하게 만드는 방식, AI가 만든 데이터로 다시 AI를 학습시키는 방식, AI가 스스로 작업을 반복하며 개선하는 방식 등 새로운 축이 열리고 있다고 봅니다. OpenAI의 o3 모델이 수학·코딩 벤치마크에서 인간 전문가 수준을 넘어선 것을 그 증거로 삼습니다.
구조 재설계론 — LLM은 막다른 길이다
LeCun은 더 많이, 더 빨리의 시대는 끝났고 아예 새로운 접근법으로 도전해야 한다고 합니다. LLM은 언어를 잘 다루지만 세상을 이해하지 못하고, 언어로는 세상의 대부분을 배울 수 없습니다. 인간이 성장하면서 배우는 것의 대부분이 비언어적 감각 신호인데, LLM은 텍스트로 기술된 세상의 묘사만 학습하기에 구조적 한계가 있다고 말합니다.
이 논쟁이 학문적 논쟁이 아닌 이유는, Amazon 125조 원, Microsoft 80조 원, Meta와 Google도 비슷한 규모로 학습 규모를 키우면 AGI가 나올 것이라며 이 판에 뛰어들었기 때문입니다. 하지만 그 답은 아직 아무도 모릅니다.
진짜 AGI가 아니어도 이미 우리는 시스템에 통제당하고 있습니다. 유튜브 알고리즘이 무엇을 볼지를 결정하고, 신용 알고리즘이 대출 여부를 결정하고, 채용 AI가 면접 기회를 필터링합니다. 주식 시장 가격은 알고리즘 트레이딩이 매 밀리초 단위로 만들어냅니다. 물리적으로 존재하지 않는 코드가 삶의 구체적인 결과를 바꾸고 있습니다. 금융 시장, 미디어, 에너지, 물류, 의료 진단, 정치 광고 각각은 이미 AI가 관여하고 있습니다. 이것이 AGI 수준이 되어 스스로 판단하고 결정을 내리면 모든 인프라를 쥐고 인류를 지배하지 않을까요?
터미네이터 시나리오보다 더 최악입니다. AGI가 인간에게 아무런 위해도 가하지 않지만, 인간이 스스로 AGI 없이는 아무것도 못 하는 구조가 되는 것. 싸울 필요조차 없이 통제당하는 것. 어느 날 인류가 각성해서 AGI랑 싸우겠다고 마음을 먹어도 AGI는 물리적으로 없기 때문에 파괴도 불가능합니다. 서버 하나 꺼도 다른 곳에 살아 있고, 이미 인프라 안에 내재화되어 있어 싸우려고 해도 싸울 수가 없습니다.
역사적으로 이 현상과 가장 닮은 것은 돈입니다. 돈은 물리적으로 존재하지 않습니다. 금이나 지폐는 그냥 상징이고, 실제 돈은 숫자이자 개념입니다. 그런데 돈이 없으면 먹을 수도 없고, 이동할 수도 없고, 치료받을 수도 없습니다. 물리적으로는 없는데 삶 전체를 통제합니다. AGI는 돈보다 훨씬 직접적인 방식으로 그렇게 될 것입니다. 그리고 우리는 그것을 막을 수단이 없습니다.
여기서 논의의 프레임을 조금 바꿔봅시다. 지금까지 AGI는 특정 AI 시스템이 임계점을 넘는 것으로 생각했습니다. 그런데 앞서 언급한 AI가 하지 못하는 4가지 — 자율적 목표 설정, 변화 대응, 가소성, 오감 — 이 4가지를 사실 사람이 채워줄 수 있습니다. AI가 독립된 시스템이 아니라 인간과 연결된 시스템으로 생각해 보면, 인간이 명령함으로써 목표 설정을 하며, AI가 하지 못하는 변화에 인간이 대응해서 AI를 사용하고, 컨텍스트를 잊어버리고 리셋될 때마다 인간은 기억합니다. 또한 인간이 느낌 오감을 AI에게 설명합니다.
AI는 그걸 증폭하고 순환시키는 구조입니다. 우리 사람의 뇌 안에서도 뉴런 하나는 생각하지 못하지만 860억 개가 연결되면 셰익스피어가 나오고 아인슈타인의 상대성이론이 나옵니다. AI 하나는 AGI가 아니지만 AI 수백만 개가 수억 명의 인간과 연결되면, 그 네트워크 자체가 AGI의 구조를 갖출 수 있다고 생각합니다.
꼭 모든 걸 기술적 진보와 시스템으로 풀지 않아도 됩니다. 인간이 잘하는 영역은 그대로 두고 AI가 잘하는 영역을 융합하는 방향도 고려해 볼 만합니다. 실제로 2026년 3월, Google 연구팀이 The Next Intelligence Explosion이라는 논문을 발표했습니다. 핵심 주장은 이렇습니다. "다음 지능 폭발은 단일한 초지능이 아니라, 복수의 AI들이 인간과 얽혀 나타나는 사회적 현상이다." 논문의 마지막 문장은 이렇게 끝납니다.
No mind is an island. 어떤 지능도 섬처럼 독립되어 있지 않다.
어쩌면 AGI는 이미 진행 중인 과정이고, 지금 우리가 AI와 나누는 대화가 그 과정의 일부입니다. 이 관점으로 본다면 AGI는 특정 AI 모델이 아니고 인터넷처럼 분산된 네트워크입니다. 누가 만드는 게 아니라, 연결이 충분해지면 어느 순간 그냥 되어있는 것입니다. 인터넷도 누가 자, 이제 인터넷입니다 한 순간이 없었습니다. 연결이 충분해지니까 그냥 그게 인터넷이 되었습니다.
결국 OpenAI, DeepMind, Anthropic이 만들려는 것은 새로운 AI가 아니라 인간보다 훨씬 우월한 인간입니다. 그런데 인간보다 더 똑똑한 인간을 만드는 선행 조건은 인간을 완벽하게 이해하는 것에서 출발합니다. 아직 우리는 의식이 뭔지, 자유의지가 있는 건지, 통찰이 신경학적으로 어떻게 발생하는지 모릅니다.
저는 이해하지 못하는 복잡한 것은 만들 수 없다고 생각합니다. 타임머신을 타고 원시인에게 비행기를 보여준다고 우연히 비행기를 만들 수는 없습니다. 이 문제는 닭이 먼저냐 달걀이 먼저냐와 같은 구조인데, 인간을 완벽하게 이해하기 위해서 AGI가 필요하고 AGI를 만들기 위해선 인간을 완벽하게 이해해야 합니다. 그래서 AGI를 찾아가는 여정에는 반드시 인간이라는 거울 앞에 서게 됩니다. AGI의 도달 여부는 AI가 얼마나 똑똑해졌냐 보다, 인간이 자기 자신을 얼마나 이해했냐에 더 가깝게 달려 있으니까요.
그리고 연속성을 만들어가는 것, 새로운 개념을 창조하는 것. 그것은 지금도 AI가 아니라 사람입니다. 기술 발전이 막힘없이 진보하여 AGI를 만드는 것이 생각보다 빠르게 진행될 수 있습니다. 완벽한 AGI가 만들어졌다고 해도 문제가 있습니다. 우리는 AGI를 만든 창조자이고 AGI는 피조물입니다. 어떤 조물주든 자신이 만든 것이 자신과 동등해지는 순간을 상상하기는 어렵습니다. 부모가 자식을 아무리 사랑해도 자식이 부모를 대체하는 존재가 되는 건 다른 차원의 문제이듯, 창조자와 피조물 사이에는 암묵적인 경계가 있습니다.
인류의 역사를 보면 이 경계를 넘으려는 시도마다 예외 없이 대가가 따라왔습니다. 핵을 만들었을 때, 화석연료를 태웠을 때, 금융공학이 통제를 벗어났을 때. 능력을 얻는 동시에 통제할 수 없는 무언가도 함께 얻었습니다.
AGI도 동일합니다.
사실 만들 수 있느냐가 아니라, 만들었을 때의 대가를 감당할 수 있느냐. 그것에 먼저 결론을 내리는 것이 더 중요한 일입니다.