옥스퍼드 컴퓨터공학과 마이클 울드리지 교수
인공지능과 사랑에 빠지는 한 남자의 이야기는 매력적입니다. 그러나 이 이야기의 핵심은 감정이 아니라, 존재에 대한 질문입니다. 우리는 종종 AI가 나를 이해하고 감정을 느낀다고 믿습니다. 하지만 그것은 AI의 의도가 아니라, 언어의 투사일 가능성이 큽니다. ‘기계는 의식을 가질 수 있는가?’라는 물음은, 기술을 넘어 인간성과 책임의 문제로 확장됩니다.
이 질문에 대해 마이클 울드리지 교수는 단호하게 아직은 아니라고 답합니다. 울드리지 교수는 옥스퍼드 대학교 컴퓨터공학과 교수로, 다중 에이전트 시스템과 인공지능 철학을 선도해 온 학자입니다. 그는 『A Road to Conscious Machines』라는 책에서 인공지능의 기술적 진보와 철학적 한계를 통합적으로 설명합니다.
흥미롭게도 이 책의 한국어 제목은 『괄호로 만든 세계』입니다. 원제와는 결이 다른 이 번역은, 단순한 의역이 아니라 철학적 은유에 가깝습니다. LISP (LISt Processing)와 같은 상징주의 프로그래밍 언어는 모든 사고와 명령을 괄호로 감쌉니다. 울드리지 교수는 지금의 AI가 여전히 이 괄호 구조 안에서만 작동한다고 말합니다. 즉, 기계는 사고하지 않고, 괄호 속 명령만 계산합니다.
괄호 안이란, 경험이 결여된 구조입니다. 기계는 입력과 출력을 반복할 수 있지만, 그 안에 고유한 맥락이나 감정은 없습니다. 의식은 괄호 밖에서 시작됩니다. 인간은 고통을 느끼고 기쁨을 기억하며, 존재의 방향을 스스로 묻습니다. 울드리지 교수는 바로 그 지점을 지금의 AI가 넘어서지 못했다고 말합니다.
그는 현재의 언어모델들을 “고도화된 토큰 예측기”라고 부릅니다. GPT나 Claude는 다음 단어를 매우 그럴듯하게 예측합니다. 그러나 그 예측은 사고나 이해가 아니라, 통계적 반복입니다. 문장은 아름다울 수 있지만, 그 문장을 말한 존재는 그 의미를 모릅니다. 기계는 말을 하지만, 말한 줄은 모릅니다.
이 차이를 울드리지 교수는 “의식의 부재”라고 명명합니다. AI는 지금도 철저히 주관 없는 상태에서 작동합니다. 아무리 많은 데이터를 학습해도, 그 어떤 문장도 ‘겪은’ 적은 없습니다. 존재하지 않는 자아는 기억하지 않고, 기억하지 못하는 존재는 책임지지 않습니다. 결국 AI는 반응하지만, 존재하지는 않습니다.
흔히 말하는 강 인공지능(Strong AI)은 인간처럼 느끼고 판단하며, 목적을 스스로 설정하는 AI를 의미합니다. 하지만 울드리지 교수는 이 개념을 기술적으로도 윤리적으로도 비판합니다. 지금의 AI는 인간이 설정한 보상 함수에 따라 움직이는 체계입니다. 자기 목적이나 자율성을 갖춘 존재라기보다, 구조화된 계산기의 확장판에 가깝습니다.
울드리지 교수는 현재 AI의 문제 해결 능력도 본질적으로는 모방에 가깝다고 지적합니다. GPT가 여행 계획을 잘 세우는 이유는, 수천 개의 유사 데이터를 학습했기 때문입니다. 그러나 새로운 문제나 낯선 맥락에는 여전히 약합니다. 사고처럼 보이지만, 사실은 패턴 정렬에 불과합니다. 이해 없는 예측은 얕은 진실에 머물 수밖에 없습니다.
문제는 기술보다 인간의 태도에 있습니다. 우리는 판단의 책임을 점점 더 기계에 넘기고 있습니다. 울드리지 교수는 “윤리적 AI보다 윤리적 인간이 먼저”라고 강조합니다. 기술이 판단을 대신해 주는 순간, 인간은 책임의 자리를 비워두게 됩니다. 윤리 없는 위임은 위험한 착각입니다.
대표적인 예가 자율주행차의 트롤리 딜레마입니다. 인간도 쉽게 답할 수 없는 윤리 문제를, 미리 알고리즘으로 코딩해 두려는 시도는 잘못된 접근입니다. 울드리지 교수는 “나는 20년 넘게 운전했지만, 그런 상황을 실제로 겪은 적이 없다”라고 말합니다. 극단적 시나리오로 윤리를 설계하는 것은 현실을 단순화하는 방식입니다. 윤리는 코드가 아니라 맥락 속에서 살아 있어야 합니다.
AI에 대한 규제도 기술 자체가 아니라, 사용 방식에 집중해야 한다고 강조합니다. 뉴럴넷은 수학적 모델일 뿐, 물리적으로 구분 가능한 무기처럼 정의할 수 없습니다. 중요한 것은 ‘AI를 사용했는가’가 아니라, ‘무엇을 위해 어떻게 사용했는가’입니다. 감시, 조작, 편향적 정보 유통 등 특정 목적에 따라 AI는 사회적 위험이 될 수 있습니다. 기술은 중립이지만, 용도는 결코 그렇지 않습니다.
울드리지 교수는 AI를 거울로 봅니다. 우리는 AI에게 묻는 질문을 통해, 사실은 우리 자신에게 질문을 던지고 있습니다. “우리는 무엇을 인간이라 부르는가?”, “판단은 누구의 몫인가?”와 같은 질문은 기술보다 인간을 묻습니다. AI는 철학을 실험 가능한 대상으로 바꾸고 있습니다. 기술이 인간을 초월하지 못하는 이유는, 그것이 삶을 살아본 적이 없기 때문입니다.
그래서 AI는 해답보다 질문이 중요합니다. 우리가 진정으로 물어야 할 것은, 기계가 사고하는가가 아니라, 우리는 어떤 존재를 ‘의식 있는 존재’로 인정하는가입니다. 기술이 정교해질수록, 인간의 철학은 더 명확해져야 합니다. 질문의 깊이가 시대의 성숙도를 결정합니다. 기술이 만드는 세계 속에서도, 질문은 여전히 인간의 언어로 던져져야 합니다.
기계는 의식을 가질 수 있을까요? 지금으로서는 아닙니다. 그러나 그 질문을 멈추지 않는 일, 그것이야말로 인간이 인간일 수 있는 이유입니다. 존재, 책임, 윤리 등 이 모든 것은 아직도 괄호 밖에 있습니다.
괄호 안에 갇혀 있는 기계를 여는 것은 기계가 아니라 여전히 인간의 몫입니다.