사람보다 똑똑한 앵무새?
지난 글 마지막에 질문 하나를 던지고 끝냈다. 이 앵무새를 계속 크게 키우면, 어느 순간 진짜 '이해'를 하게 될까?
샘 알트먼은 그렇다고 말해왔다. 2025년 내내, AI가 거의 모든 지적 작업에서 인간보다 나아졌다고 했다. AGI, 즉 범용 인공지능(Artificial General Intelligence)이 몇 년 안에 온다고. 일론 머스크도, 구글도, 너도나도 AGI 경쟁에 뛰어들었다.
마치 앵무새를 좀 더 키우면 어느 날 갑자기 의식이 생길 것처럼.
AI 업계에는 하나의 믿음이 있었다. 모델을 크게 만들수록 더 똑똑해진다. 이걸 스케일링 법칙(scaling law)이라고 불렀다. GPT-2에서 GPT-3로, GPT-3에서 GPT-4로. 모델 크기를 키우고 훈련 데이터를 늘릴 때마다 성능이 확실히 뛰었다.
그런데 그 마법이 멈췄다.
Cal Newport는 최근 글에서 이 현상을 정면으로 다뤘다. (참조) 단순히 모델을 키우고 데이터를 더 먹이는 것만으로는 비례적인 성능 향상이 나오지 않게 됐다는 거다. 그래서 AI 회사들은 전략을 바꿨다. 사전 훈련(pre-training) 대신 사후 훈련(post-training)에 집중하기 시작했다. Newport의 표현을 빌리면, 사전 훈련이 차량을 만드는 거라면 사후 훈련은 그 차를 튜닝하는 것이다.
문제는, 튜닝에도 한계가 있다는 거다. 엔진 자체가 달라지지 않으면, 아무리 튜닝해도 근본적인 성능 도약은 없다.
2025년 내내 기대를 모았던 GPT-5의 출시 반응은 실망스러웠다. AI 연구자 Gary Marcus는 "기한 초과, 과대광고, 그리고 실망스러운(overdue, overhyped, and underwhelming)"이라고 평가했다. ChatGPT 성능 향상이 정체된 느낌이라는 내 체감이 틀리지 않았던 거다.
샘 알트먼과 OpenAI는 AGI가 몇 년 안에 실현될 것처럼 말해왔다. 그런데 Newport는 이 서사를 정면으로 부정한다. "초인공지능 이야기는 넌센스라고 생각한다(The story of superintelligence, I think, is nonsense)"라고까지 했다.
왜 그런 걸까? 다시 원리로 돌아가면 명확하다.
AGI가 되려면 최소한 이런 것들이 가능해야 한다. 새로운 상황에서 스스로 학습하고, 계획을 세우고, 장기적 목표를 추구하고, 자신이 모르는 것을 인식하는 것. 그런데 지금의 LLM은 이 중 어느 것도 할 수 없다. Newport가 지적한 것처럼, 계획이란 상태를 유지하고 미래를 시뮬레이션하는 능력인데, 다음 단어를 예측하는 아키텍처에는 이런 게 없다. (참조)
사실은, 단순한 비유다. 아무리 정교한 앵무새라도 앵무새는 앵무새다. 단어를 더 많이 외우고 더 자연스럽게 조합한다고 해서, 어느 날 갑자기 의식이 생기고 자아가 탄생하지는 않는다.
Newport는 또 다른 글에서 흥미로운 역설을 지적한다. (참조) CEO들은 "AI로 3-4일 걸리던 일을 한 시간에 끝낸다"고 말하는데, 통제된 연구에서는 숙련된 개발자가 AI 도구를 썼을 때 오히려 19% 더 오래 걸렸다는 결과가 나왔다. 누가 맞는 걸까? Newport의 결론은 단호하다. "아직은 아무도 모른다."
나도 동의한다. 매일 AI를 쓰면서 생산성이 올라간 건 사실이다. 하지만 그게 AGI로 가는 길의 첫걸음인지, 아니면 아주 잘 만든 도구의 최종 형태에 가까운 건지는, 솔직히 모르겠다.
분명한 건 하나다. 지금의 LLM 아키텍처, 즉 다음 단어를 예측하는 이 구조로는 초인공지능에 도달할 수 없다. 이건 낙관이나 비관의 문제가 아니라, 구조적 한계의 문제다. 엑셀을 아무리 잘 써도 엑셀이 스스로 사업 전략을 짜주지는 않는 것처럼.
AGI가 언젠가 올 수도 있다. 하지만 온다면, 지금과는 완전히 다른 아키텍처에서 올 것이다. 지금 AI 회사들이 "조금만 더 크게, 조금만 더 많은 데이터로"라고 말할 때, 그건 더 큰 앵무새를 만들겠다는 말과 다르지 않다.
어쨌든 지금 우리가 할 일은 단순하다. 앵무새가 초인공지능이 될 거라는 환상은 내려놓되, 이 앵무새가 지금 당장 꽤 쓸모 있다는 사실은 활용하는 것. 과대광고와 과소평가 사이 어딘가에, 현실이 있다.