인간이 되어가는 인공지능, 인간을 넘어서다



인간의 뇌와 인공지능은 구조적으로는 전혀 다르게 만들어진 시스템이다. 인간의 뇌는 진화과정에서 나타났고 인공지능은 인간의 뇌가 만든 시스템이다. 그래서 인공지능은 인간은 근본적으로 다르다고 생각한다.


그러나 2025년「네이처」에 발표한 논문에 의하면 뇌에서 일어나는 언어처리와 말을 이해하는 방식은 인공지능과 유사하다. 인간의 뇌는 음성 언어의 의미를 단계적으로 축적되며 형성한다. 이는 GPT 계열 대규모 언어 모델의 처리 구조와 유사하다. 처음 말을 들었을 때 인간의 뇌는 그 말의 단어를 파악하는 수준에 머문다. 인공지능이 문장을 입력받았을 때, 단어의 형태나 기본 정보를 읽어 들이는 과정과 비슷하다. 이후 사람은 들은 단어들을 앞뒤 문장과 연결해 이 말이 무슨 뜻인지, 전체 문맥에서 어떤 의미인지를 이해하려고 시작한다. 특히 전두엽의 브로카 영역(Broca's area)처럼 언어 이해를 담당하는 고차 언어 영역에서 뚜렷하게 나타난다. 말을 이해할 때 문장이 이어지는 흐름 속에서 의미를 종합하는 방식으로 작동한다. 브로카 영역에서는 문맥과 의미를 종합할수록 뇌 반응이 더 늦은 시점에서 강하게 나타난다. 즉 의미를 만들어내는 데 시간이 필요하다. 이는 인공지능이 여러 정보를 종합해 그 의미를 완성하는 것과 같다.


대형 언어모델(large language model, LLM)로 대표되는 인공지능이 이미 인간과 비슷한 일반 지능(general intelligence) 수준에 도달했다는 분석이 2026년「네이처」에 나왔다. 샌디에이고 캘리포니아 대학(UC San Diago) 철학과 교수팀이 다양한 관점에서 분석하고 낸 논평이다. 대형언어모델이 일반 지능에 도달하지 않았다는 반론을 모두 반박했다. 인공일반지능(AGI) 수준에 도달하지 않았다는 일부 전문가들의 주장에 대해 ‘인류 중심적 편향'을 피해야 한다고 주장한다. 인공일반지능(AGI)의 정의가 모호하고, 인간을 대체한다는 두려움으로 인한 거부감, 인공일반지능이라는 용어 정의에 일부 상업적 이익이 얽혀 있다는 분석이다. 기계가 사고한다는 것은 너무 끔찍할 테니 그저 그러지 않기를 ‘바라는' 관점이라는 비판이다. 우려에는 공감하지만 논증으로 취급해선 안 된다.


대형언어모델이 훈련한 데이터 패턴을 단순히 재조합할 뿐이라는 ‘확률적 앵무새 반론'에 대해 인간 지능의 본질 또한 정교한 확률적 앵무새가 아닐 것이라는 보장은 없다. 인간이든 인공지능이든 모든 지능은 상관관계 데이터에서 구조를 추출해야 한다. 물리적 환경에 대한 이해를 뜻하는 ‘세계 모델(world model)'이 결여됐다는 주장에 대해서는 이미 대형언어모델 수학과 물리를 넘어 공학 설계에 도움을 주고 있으며 자율주행 분야에서 정교한 물리적 인식을 수행하고 있다는 반례를 들었다.


주체성이 없다는 주장에 대해 자율성은 도덕적 책임에 중요하지만 지능의 구성 요소는 아니라고 반박했다. 인공지능의 법적·도덕적 책임을 복잡하게 만드는 자율성을 일반 지능과 분리해서 볼 필요가 있다. 정체성 역시 일반 지능의 필수 요건은 아니라는 주장이다. 기억상실증에 걸린 사람이나 다중 인격자의 지능을 부정하지 않기 때문이다. 몸이 없는 일반 지능은 없다는 주장에 대해서는 스티븐 호킹을 예로 들어 반박했다. 신체적 한계가 있지만 지능은 문제가 없었다. 운동 능력은 일반 지능과 분리 가능하다. 대형언어모델이 신뢰도가 떨어지는 정보를 생산하는 현상(hallucination)도 인간에서 충분히 일어날 수 있는 일이기 때문에 일반 지능을 인정하는 것과는 상관없다.


인공지능의 일반 지능은 모든 분야에서 최고의 인간전문가 수준일 필요는 없다. 전문성이나 집단지성이 아니라 수학, 언어, 실용적 추론 등 다양한 영역에 걸쳐 일반적인 인간 수준의 지능을 나타내는지 봐야 한다. 인공지능의 일반지능 정의에 인간의 지능을 기준으로 완벽성, 보편성, 초지능, 인간 유사성을 포함해선 안 된다. 인간의 지능은 완벽할 수 없고 모든 과제를 수행할 수 없으며, 당연히도 인간이라면 인간의 인지 능력을 뛰어넘을 수 없기 때문이다. 인공지능의 작동방식이 반드시 인간의 인지 구조와 동일하거나 인간 문화에 기반 할 필요가 없다는 뜻이다. 고지능 외계인이 등장했다고 가정했을 때 외계인의 지능이 인간과 꼭 같은 방식으로 작동할 것으로 기대하지 않을 것이기 때문이다. 기계에도 동일한 기준을 적용해야 한다는 것이다.


오픈 AI가 개발한 LLM 챗GPT-4.5는 2025년 튜링 테스트에서 73% 비율로 인간이라는 판정을 받았다. 실제 인간보다도 더 높은 비율이다. 1950년 수학자 앨런 튜링(Alan M. Turing, 1912~1954)은 ‘튜링 테스트'로 불리는 모방 게임(imitation game)을 제시했다. 기계가 인간인 척하며 자연어로 소통했을 때 이 사실을 모르는 인간이 상대가 기계인지 아닌지 구분할 수 있는지 판단하는 실험이다. 튜링은 언젠가 컴퓨터가 인간이 가진 모든 능력을 재현할 수 있을 것이라는 주장을 했다. 또한 인간이 지능을 구현하는 유일한 방식이 아닐 수도 있다고 제안했다.


대형언어모델이 보여준 수학, 프로그래밍, 작문, 다국어 구사, 과학 연구 지원, 여행 계획 세우기 기능은 이미 인간의 평가 기준을 넘었다. 대형언어모델은 2026년 국제수학올림피아드에서 금메달 수준의 성적을 내고 다양한 과학적 가설을 제안하고 있다. 시를 창작하고 프로그래머의 코드 작성을 돕기도 한다.


게다가 인간 신경세포에 관한 정보가 모두 밝혀져 인공지능에 적용하게 되면 그 가능성은 알 수가 없다. 인간의 세포는 30~40조 개, 신경세포 수가 1천억 개로 정도로 너무 많아 아직은 요원하다. 흙에서 살아가는 암수 한 몸의 예쁜꼬마선충(Caenorhabditis elegans)은 1밀리미터 정도 크기로 세포가 959개, 신경세포가 302개로 모든 뉴런 정보를 알아낸 유일한 동물이다. 이 뉴런 정보를 이용하여 이 생명체의 신경망(Connectome)을 컴퓨터 시뮬레이션으로 구현하면 컴퓨터 모니터에서 실제 선충처럼 움직이고, 그 뉴런 정보를 로봇에 구현하면 로봇이 스스로 장애물을 피해간다는 연구결과가 나왔다. 인간의 신경세포를 구현한다면 인공지능이 어떻게 진화할지 상상도 되지 않는다.

https://www.nature.com/articles/d41586-026-00285-6


매거진의 이전글아기에게 채식이 좋을까 육식이 좋을까