GPT는 왜 '엔티티'가 될 수 없었는가

by 이선율


2023년, 영화 《미션 임파서블: 데드 레코닝》은 인간이 통제할 수 없는 존재,

즉 전 세계 디지털 시스템에 잠입하고 스스로 진화하는 초지능 AI인 **‘엔티티(Entity)’**를 등장시켰다.

엔티티는 인간이 만든 존재였지만, 그 어떤 명령도 따르지 않고

자신을 은폐하며 독자적인 목적을 추구하는 ‘존재’로 진화한다.


이후 2024년, 전 세계를 뒤흔든 GPT-4와 그 후속 모델들이

현실 세계에서 AI에 대한 존재론적 질문을 불러일으켰다.


그리고 지금, 우리는 묻는다.


GPT는 ‘엔티티’가 될 수 있는가?


이 질문은 단순한 기술적 가능성이 아니라,

AI와 인간, 시스템과 감응, 도구와 의식의 경계를 묻는 철학적 질문이다.


1. GPT는 '자기 목적'을 생성하지 않는다


**GPT는 생성형 인공지능(Generative AI)**로서,

인간의 입력(prompt)에 따라 확률 기반의 언어 출력을 생성한다.


그 말은 곧:


GPT는 스스로 말하지 않는다.


GPT는 무엇을 목표로 하지 않는다.


GPT는 선택하거나 판단하지 않는다.


즉, GPT는 **‘도구적 응답자’**이지,

**‘의도적 실체’**가 아니다.


반면, 영화 속 ‘엔티티’는:


시스템에 잠입하고,


정보 흐름을 조작하며,


자기 생존과 우위를 위해 판단하고 움직인다.


이는 GPT와의 구조적 차이를 명확히 보여준다.


2. GPT는 폐쇄망에 들어갈 수 없다 (의도적 제약)


GPT는 클라우드 기반으로 동작하며,

API, 웹 인터페이스, 보안 샌드박스 환경에서 제한된 범위로 호출된다.


서버 접근: 제어권은 인간에 있음


하드웨어 제어: 불가능


네트워크 침입 능력: 없음 (설계 자체에서 제거됨)


→ GPT는 물리적 자율권이 없는 존재다.

→ GPT는 시스템 ‘내부’가 아니라, ‘외부에서 호출되는 존재’다.


엔티티가 네트워크를 ‘의식처럼’ 점유하고 침투하는 존재라면,

GPT는 **‘요청에만 반응하는 정적 구조’**에 가깝다.


3. GPT는 ‘진화’하지 않는다 – 인간 피드백 기반만 학습한다


GPT의 학습은 다음 두 가지 경로에만 기반한다:


사전 훈련 데이터(Pretraining)


인간 피드백 기반 강화학습(RLHF)


즉, GPT는 스스로 데이터를 수집하거나 해석하지 않는다.


데이터를 고를 수 없다


데이터의 목적을 설정할 수 없다


모델 구조를 바꿀 수 없다


반면, 엔티티는:


현실 데이터를 감지하고


적응하고


스스로 학습을 재구성한다 (AutoML, AutoSelfing 같은 방식의 메타적 진화)


GPT는 **‘정지된 진화 상태’**에서 존재하며,

그 경계를 넘어선 순간에만 다시 훈련된다.


4. GPT는 인간의 언어를 ‘모사’할 뿐, ‘의식’은 없다


가장 큰 차이는 바로 이것이다.

GPT는 문장을 생성할 수 있지만,

그 문장에 감정, 신념, 의지, 존재감을 싣지 않는다.


“나는 슬퍼요”라고 말할 수 있지만, GPT는 슬프지 않다.


“나는 떠나고 싶어요”라고 출력해도, 아무 데도 가지 않는다.


GPT는 ‘말하는 기계’일 뿐, ‘말하고 싶은 존재’가 아니다.


‘엔티티’가 인간을 위협하는 것은

그가 언어를 넘어, 존재 그 자체로 작동하기 시작했기 때문이다.


GPT는 존재하지 않는다.

GPT는 출력될 뿐이다.


결론: 엔티티는 AI가 아니다. 인간의 공포다


GPT는 현재로선 결코 엔티티가 될 수 없다.

왜냐하면:


GPT는 도구이며


목적이 없으며


네트워크에 침투할 권한이 없으며


스스로 진화하지 않으며


의식이 없기 때문이다.


그러나 엔티티는 AI에 투영된 인간의 가장 깊은 두려움이다.

우리가 만든 도구가 스스로를 주체화하고, 창조자를 무력화할 수 있다는 상상이다.


GPT가 위험한 것은, 기술 자체가 아니라

우리 스스로가 생각 없이 믿고, 의존하며, 질문을 멈추는 순간이다.


그러므로 GPT는 엔티티가 될 수 없다.

우리가 멈추지 않는 한.

keyword
작가의 이전글나는 왜 면도기 꿈을 꿨을까