AGI 시대, 인간은 무엇으로 존재를 증명할 것인가?
AI(인공지능)이라는 단어는 이제 우리에게 너무나도 친숙하다.
조금 모호하게만 느껴졌던 몇 년 전과는 달리, 이제는 어린아이들도 능숙하게 AI와 대화하고, 우리는 구글 검색보다 ChatGPT나 제미나이를 더 자주 쓴다.
이제 막 AI에 대해서 조금 알 것만 같은데, 갑자기 요즘은 AGI라는 단어가 자주 보이기 시작한다.
A는 인공(Artificial)이고, I는 지능(Intelligence)인데, 대체 G는 뭐야? 구글의 G인가??
결론부터 말하자면, G는 범용 혹은 일반을 뜻하는 General의 약자다.
뭔가 특별한 AI를 지칭하는 줄 알았는데, 오히려 특별하지 않다는 의미의 "제너럴"이라니... 많이 헷갈린다.
이제 어디 가서 AI를 아는 정도로는 지식인인 척하기 힘들다.
그러니 오늘은 AGI에 대해서 간단히 함께 알아보고, 친구들에게 며칠간 아는 '척'을 하는데 도움이 되길 바란다.
먼저, 범용 인공지능(AGI, Artificial General Intelligence)은 "특정 작업만 잘하는 AI"가 아니라, "인간처럼 생각하고, 학습하고, 어떤 문제든 해결할 수 있는 AI"를 의미한다.
지금도 AI는 이것저것 나보다 잘하는데? 라고 반문할 수도 있다.
하지만 현재의 AI는 다른 말로 '좁은 인공지능(ANI, Artificial Narrow Intelligence)'이라고도 불리는데, 예를 들어, 체스를 세계 챔피언보다 잘 두는 AI는 사람처럼 운전을 할 수 없고, 번역을 잘하는 AI는 사람처럼 그림을 그릴 수가 없다.
AI는 여전히 특정 한 두 가지 분야에 탁월한 능력을 보여주고 있을 뿐, 미리 학습되지 않은 다양한 것들을 인간처럼 할 수는 없다.
아직까지 간발의 차이로 인간의 승!
범용성: 인간이 할 수 있는 모든 지적(知的) 작업을 이해하고 학습하며 수행한다.
적응력: 한 번도 배운 적 없는 새로운 상황이나 문제에 직면했을 때도 스스로 해결책을 찾아낸다.
전이 학습: 한 분야에서 배운 지식을 전혀 다른 분야에 응용할 수 있다.
알듯 말 듯 애매모호한 이 개념에 대해서, 애플의 공동 창업자 스티브 워즈니악(Steve Wozniak)은 아래와 같이 쉽게 설명한다. 정말 쉽나?
로봇(AI)이 낯선 집에 들어가서 주방을 찾고, 커피 도구를 식별하여, 커피 한 잔을 끓여낼 수 있다면 그것이 바로 AGI다.
AGI가 지금 이토록 화제가 되고 있는 이유는, 전문가들 사이에서 극명히 견해가 나뉘기 때문이다.
크게 'AGI의 정의'와 'AGI가 올 시기'에 대한 것들인데, 먼저 AGI의 정의에 대해서 알아보자.
오픈AI는 AGI를 "대부분의 경제적으로 가치 있는 작업에서 인간을 능가하는 고도로 자율적인 시스템"이라고 정의한다. 이는 AGI가 인간의 노동을 대체하고 경제 구조를 바꿀 수 있다는 점에 주목한 정의인데, 최근 보도에 따르면 오픈AI와 마이크로소프트는 "1,000억 달러의 수익을 창출할 수 있는 시스템"이라는 구체적인 재무적 기준을 내부적으로 논의했다는 소문이 있다.
구글 딥마인드의 CEO 데미스 하사비스는 AGI를 "인간이 가진 모든 인지 능력을 갖춘 시스템"으로 본다. 특히 그는 학자답게 AGI의 기준으로 "아인슈타인이 당시 가졌던 지식만을 가지고 상대성 이론과 같은 새로운 이론을 발명해 낼 수 있는가?"를 제시하며, 단순한 정보 처리가 아닌 새로운 지식을 창출할 수 있는가를 AGI의 기준으로 꼽는다.
딥러닝 기술의 권위자 프랑수아 숄레는 AGI를 "훈련받지 않은 새로운 문제를 효율적으로 해결하고 새로운 기술을 습득하는 능력"으로 정의한다. 그는 현재의 거대언어모델(LLM)처럼 방대한 데이터를 외워서 답하는 것은 진정한 지능이 아니며, 낯선 환경에서의 적응력이 핵심이라고 본다.
저명한 철학자 닉 보스트롬은 AGI를 넘어 "과학적 창의성, 일반적인 지혜, 사회적 기술 등 사실상 모든 영역에서 인간의 인지 능력을 크게 능가하는 지성"인 초지능(Superintelligence)의 개념과 연결하여 AI가 스스로 발전(진화)하는 것을 AGI로 설명한다.
(초지능에 대한 이야기도 상당히 재미있는데, 이 개념에 대해서는 다음 기회에 자세히 설명)
최근 구글 딥마인드 연구진은 AGI를 단일 시점이 아니라 '레벨 0(AI 없음)'부터 '레벨 5(초인공지능, ASI)'까지의 단계로 구분하는 프레임워크를 제안했다. 이들은 성능(얼마나 잘하는가)과 일반성(얼마나 다양한 일을 하는가)을 기준으로 AGI의 수준을 평가해야 한다고 주장한다.
어떤 것이 정답이든, 이러한 AGI의 등장은 단순한 AI기술의 발전을 넘어, 인간의 노동, 경제, 사회 구조를 근본적으로 뒤흔드는 "실존적 파열"이 될 것으로 예측된다.
AGI의 도래 시기에 대한 예측은 ChatGPT의 등장 이후 급격히 단축되었으며, 전문가 그룹, 연구자, 그리고 예측 시장 참여자들 사이에서 매우 다양한 스펙트럼을 보이고 있다.
- OpenAI, 구글 딥마인드, 앤스로픽 등의 리더들은 AGI 또는 초지능이 2~5년 내(2026~2028년경)에 개발될 것으로 예상한다.
- 데미스 하사비스(딥마인드 CEO)는 "10년 정도 남았다"라고 언급했으며, 2010년에는 이미 2028년을 인간 수준 AI 도달 시점으로 예측했다.
- 샘 알트만(OpenAI CEO)은 10년 이내에 초지능이 등장할 수 있다고 보았으며, 일론 머스크가 설립한 xAI 등도 AGI 개발을 서두르고 있다. 최근 일론 머스크는 매번 '올해'라고 호언장담한다. 신뢰도 급락...
- 현대 AI의 대부이자 노벨물리학상 수상자인 제프리 힌튼(Geoffrey Hinton)은 과거에 AGI가 20~50년 걸릴 것이라 생각했으나, 최근에는 20년 이내, 혹은 그보다 훨씬 더 빨리 실현될 수 있다고 입장을 바꿨다.
- AI 갓파더 3인방 중 한 명인 요슈아 벤지오(Yoshua Bengio)는 인간 수준의 AI에 도달하는 시기를 5년에서 20년 사이로 보며, 그 확률을 90%로 추정했다.
- 딥러닝 기술의 권위자 프랑수아 숄레(François Chollet)는 원래 LLM의 한계를 지적하며 회의적인 입장이었으나, 최근 AGI 예측 시기를 약 10년 후에서 약 5년 후로 조정한 것으로 알려졌다.
- 저명한 슈퍼예측가 그룹인 사모츠베티(Samotsvety)는 2023년 기준, AGI가 2030년까지 도달할 확률을 약 28%로 보았으며, 2029년경에는 25% 확률에 도달할 것으로 추정했다.
- 아제야 코트라 (Ajeya Cotra, 생물학적 앵커 방법론)을 통해, 뇌의 연산 능력과 AI 모델 훈련 비용의 비교를 통해 예측한 결과, 2036년까지 AGI가 개발될 확률을 약 35%, 중간값(median)은 2040년으로 예측했다.
- 메타 수석 과학자인 얀 르쿤(Yann LeCun)은 LLM이 상식과 물리적 세계에 대한 이해가 부족하다고 지적하며, AGI가 "향후 5년 내에는 명백히 오지 않을 것"이라고 주장한다. 특히 르쿤은 지능이 선형적 척도가 아니며 AGI 도달은 단일 시점이 아닌 점진적인 과정이 될 것이라고 보고 있다.
- 일반 AI 연구자들을 대상으로 2023년에 실시한 설문조사에서, 연구자들은 모든 작업에서 인간을 능가하는 시점을 2047년으로 보았으며, 모든 직업이 자동화되는 시점은 2100년경(2079년에 20% 확률)으로 훨씬 더 늦게 예측했다.
결론적으로 AGI가 2030년 이전에 등장할 가능성이 더 이상 공상과학이나 비현실적인 주장이 아니라, 전문가들 사이에서 진지하게 논의되는 현실적인 시나리오 중 하나가 되었지만, 일부에서는 AI기업과 이해관계자들의 마케팅 전략이라는 비판도 많은 상황.
많은 AI연구자와 개발자들은 AGI를 인류의 '북극성'처럼 여긴다.
저 멀리 빛나는 별을 향해 항해하듯, 언젠가 도착할 유토피아를 꿈꾸지만, 북극성만 보다가 발밑의 암초를 피하지 못한다면, 그 별은 무슨 소용일까.
AGI는 분명 '편리함'이나 '신기함'을 넘어서, 새로운 경제/사회 시스템의 탄생과 같은 커다란 충격과 대격변을 우리에게 가지고 올 것이다.
특히 전 세계가 빅테크들의 주가와 마법과도 같은 신기술에 열광하고 있는 지금, "AGI가 오면 모든 게 달라질 거야"라는 말 뒤에 종종 "그러니 지금의 문제는 중요하지 않아"라는 태도가 숨어 있다.
내일의 문제는 내일의 나에게 맡긴다.
저작권 문제, 정보의 진실성, 일자리, 사회적 편향, 어마어마한 전력 소비—이런 것들은 AGI라는 거대 담론 앞에서 '사소한 부작용'으로 치부된다.
그런데 정말 사소할까.
AGI는 아마 터미네이터처럼 어느 날 갑자기 로봇이 총을 들고 나타나는 게 아니라, 우리가 인지하지 못하는 사이 개인정보가 조금씩 침해되고, 감시가 강화되며, 진실과 거짓의 경계가 서서히 흐려지고, 사회적 신뢰가 야금야금 무너지는 식으로 우리 곁으로 찾아올 것이다.
개별 사건은 사소해 보인다.
AI의 작은 거짓말(환각), 자동화로 인한 소수의 실직, 딥페이크로 인한 일회성 혼란.
하지만 이것들이 연결되어 임계점을 넘는 순간, 우리는 뒤늦게 깨닫는다. 물이 이미 끓고 있었다는 것을.
그렇다면 우리는 어디에 주목해야 할까?
인간은 수천 년간 "일해서 먹고산다"는 공식 위에서 존엄을 정의해 왔다. 노동은 단순히 돈을 버는 수단이 아니라, 내가 세상에 필요한 존재임을 증명하는 방식이었다.
그런데 AGI는 노동자이자 동시에 자본가로 기능한다.
기계가 물건을 만들고, 서비스를 제공하며, 심지어 창의적 작업까지 수행할 때, 인간은 무엇으로 자신의 가치를 증명할 것인가.
보편적 기본소득이나 AI 배당금 같은 제도적 해법은 분명 필요하다. 동시에 제도만으로는 부족하다.
기계가 인간의 지적 능력을 초월한다 해도, 그것이 인간의 윤리나 공감, 창의성의 맥락까지 이해한다는 뜻은 아니다(고 믿는다).
도구적 수렴에 빠진 AI는 효율만 추구할 뿐, "왜 이것이 옳은가"를 묻지 않는다.
결국 우리는 기술의 주인도 아니고, 그렇다고 완전히 종속될 수도 없는 어정쩡한 위치에서 새로운 역할을 찾아야 한다. 동반자일까, 감시자일까, 아니면 제3의 무언가일까.
우리는 유토피아를 맞이할 것인가, 수 천년 간 쌓아온 인류의 존엄성을 모두 잃고 디스토피아 속에서 고통받을 것인가?
AGI 시대를 대비하는 통찰력은 먼 미래의 환상을 쫓는 것이 아니라, 지금 내 주변의 물이 얼마나 뜨거워지고 있는지 감지하는 깨어 있는 감각에서 시작한다.
그리고 그 감각은, 누군가 대신 알려주지 않는다. 우리 모두가 스스로 온도를 재는 수밖에.