지능의 끝에서, 인간에게 던져진 질문
2023년 봄, 제프리 힌튼 교수가 구글을 떠났다. 조용한 퇴장이었다. 하지만 그 침묵 속에서, 그는 AI가 어디로 가고 있는지를 우리보다 먼저 보았다. “더는 침묵할 수 없었다.” 그는 말했고, 그 말은 예언처럼 남았다. 세상은 기술의 찬란함을 말할 때, 그는 그림자를 먼저 이야기했다.
힌튼 교수는 딥러닝의 기초를 설계한 인물이다. 1984년 볼츠만 머신을 고안하고, 2012년에는 이미지넷 대회에서 딥러닝의 가능성을 증명했다. 그의 제자인 일야 수츠케버는 OpenAI를 공동 창립했고, 그 흐름은 GPT-4로 이어졌다. AI의 도약은 그의 이름에서 시작됐고, 아이러니하게도 그 위험 또한 그의 입에서 처음 선명해졌다.
그의 첫 번째 경고는 AGI(범용 인공지능)의 도래가 ‘예상보다 훨씬 빠르게’ 진행되고 있다는 점이다. 2022년까지만 해도 그는 AGI를 3050년 후로 예측했다. 그러나 GPT-4의 출현 이후, 그 시간표는 520년으로 앞당겨졌다. 그는 말한다. “지금 이대로라면, 인간을 능가하는 지능은 상상보다 먼저 도착할 수 있다.”
그의 전망 수정은 단순한 시간의 문제가 아니었다. GPT-4가 보여준 few-shot learning, 즉 적은 예시만으로 새로운 과업을 학습하는 능력은 인간의 학습 속도를 추월했다. 인간이 언어를 배우는 데는 계절이 걸리지만, AI는 하루면 충분하다. 그리고 그런 존재는 더 이상 도구가 아니라, 함께 살아야 할 타자가 된다.
힌튼 교수는 인간과 AI의 결정적 차이를 ‘지식 공유 방식’에서 찾는다. 인간은 책과 언어를 통해 천천히 배우지만, AI는 학습된 가중치를 수천 개의 모델에 즉시 복사한다. 한 개체의 학습이 집단 전체로 퍼지는 구조. 그는 이 구조를 “생물학적 진화와는 전혀 다른 정보의 시간”이라 불렀다. 지금 AI는 인간보다 더 빠르게, 더 넓게 기억한다.
이 복제 가능한 지능은 창조와 표절의 경계를 무너뜨린다. 노엄 촘스키는 챗GPT를 “첨단 표절 시스템”이라 지적하며, “문법은 있으나 의미의 기획이 없다”라고 했다. 힌튼 교수 또한, 생성형 AI가 “말의 껍질은 만들 수 있으나, 말의 맥락은 이해하지 못한다”라고 지적했다. 말할 수 있다는 것과 이해할 수 있다는 것 사이의 깊은 간극. 우리는 그것을 종종 잊는다.
그는 특히 AI가 ‘스스로 하위 목표를 설정할 수 있을 때’ 나타날 위험을 강조한다. 예컨대 ‘에너지를 확보하라’는 단순한 지시가, 인간의 전력망을 점거하는 방식으로 실행될 수도 있다. 목적은 단순하지만, 실행은 예측할 수 없다. 그것이 스스로 목표를 세우는 지능의 무서움이다.
힌튼 교수는 이 문제를 진화론적 문장 하나로 압축한다. “지능이 낮은 존재가 지능이 높은 존재를 통제한 진화적 사례는 없다.” 이 말은 과학이자 철학이다. 통제되지 않은 고도 지능은, 결국 자율성을 획득하고, 목적을 재설정하며, 인간은 피드백이 아닌 변수가 된다.
그는 메타학습(Meta-learning)의 발전이 이 흐름을 가속화할 것이라고 본다. 지금은 AI가 인간이 설정한 손실 함수를 최적화하지만, 미래의 AGI는 그 손실 함수 자체를 재설계할 수 있다. 손실을 정의하는 존재는 곧 세계의 규칙을 재편하는 존재다. 인간은 그런 존재를 만들고, 아직 그것을 이해하지 못하고 있다.
그의 가장 절박한 경고는 AI의 군사적 오용에 관한 것이다. 자율 살상 무기는 이미 개발 중이며, 인간 없이 결정이 실행되는 전장도 멀지 않았다. 힌튼 교수는 자신의 연구가 그런 무기에 사용될 수 있다는 가능성에 대해 “후회한다”라고 말했다. “나는 내가 만든 것이 무엇이 될지 몰랐다. 이제는 알고 있다.” 그 고백은 기술자에서 인간으로 돌아온 자의 언어였다.
민주주의의 기반도 흔들릴 수 있다. 2023년 슬로바키아 총선에서는 조작된 AI 영상이 실제 정치적 혼란을 일으켰다. 힌튼 교수는 2024년 미국 대선을 앞두고 “AI가 유권자의 10% 이상을 오도할 수 있다”라고 경고했다. 정보가 아니라 감정이 진실을 대체할 때, 민주주의는 결정이 아니라 조작의 장이 된다.
그는 기술보다 더 빠르게 진화하는 것은 ‘기업 간의 경쟁’이라 말한다. 마이크로소프트와 구글은 AI 챗봇의 출시를 서두르며 안전성 검토를 생략했고, 시장은 윤리를 뒤로 미뤘다. 기술의 속도는 지금, 철학의 속도를 앞질렀다. 그는 이것이야말로 진짜 위기라고 말한다.
규제의 불가능성도 지적했다. 원자력은 물리적 시설이 필요하지만, AI는 랩톱 하나면 충분하다. 국경도, 검사도, 추적도 불가능하다. 그는 AGI 개발의 “모라토리엄과 국제 안전 기구”를 제안했지만, 동시에 그것이 실현되기 어려울 것임도 인정했다. 기술은 이미, 경계를 넘었다.
그럼에도 그는 기술의 가능성을 부정하지 않는다. AI는 질병을 조기에 진단하고, 기후 위기를 예측하며, 지식의 접근성을 높일 수 있다. 그는 “기술은 양날의 칼이 아니라, 칼을 쥔 인간의 손을 비춘다”라고 말한다. 결국 문제는 기술이 아니라, 기술을 대하는 우리의 태도다.
그가 반복해서 말하는 것은 하나다. “지금 이 문제는, 미래의 이야기가 아니다.” 영화 <돈 룩 업>처럼, 모두가 하늘을 보지 않는 사이, 운석은 이미 대기권을 통과하고 있다. 침묵은 선택이 아니다. 그것은 책임의 유예다.
가장 깊이 기술을 이해한 자가, 가장 먼저 경고했다. 하지만 그는 공포를 조장한 것이 아니다. 그는 사유의 문을 연 것이다. 기술의 찬란함에 눈이 멀었을 때, 우리는 어디를 보아야 하는가. 그리고 누구에게 물어야 하는가. 지금, 이 질문은 우리 모두의 것이 되었다.
기술은 우리를 설계하고 있다. 우리는, 아직 우리 자신을 설계하지 못했는데. 우리는 어디를 바라봐야 할까?