GPT는 사고하지 않는다 — 생성형 AI의 언어는 왜 인간의 언어가 아닌가
우리는 지금, 말의 '그럴듯함'이 사고의 깊이를 대신하는 시대에 살고 있다.
AI가 작성한 문장은 종종 매끄럽고, 심지어 감동적이기까지 하다. 그러나 그 문장이 말하는 사람은 존재하지 않는다.
GPT는 '사고하지 않는다'. 단지 사고의 껍질을 모방한다.
1. 언어는 단어가 아니다 — 언어는 ‘구조’다
촘스키는 인간 언어의 핵심을 **'무한 생성 능력'**으로 설명했다. 단어들의 나열이 아니라, 보이지 않는 문법 구조, 즉 규칙과 관계의 틀 안에서 새로운 의미를 끝없이 만들어내는 능력 말이다.
그러나 GPT는 이런 생성 구조를 이해하지 못한다. 그것은 인간의 언어 규칙을 배운 것이 아니라, 과거 텍스트의 통계적 패턴을 학습한 것이다.
GPT의 문장은 그래서 진짜 의미를 만들지 않는다.
단지 ‘이런 단어 다음엔 이런 단어가 잘 나오더라’는 경험적 확률에 기반한 조립품이다.
즉, GPT는 언어를 외형의 조합으로만 처리할 수 있을 뿐, 내면의 리듬, 사고의 긴장감, 의식의 확장을 언어에 담지 못한다.
---
2. 사고란 무엇인가 — ‘리스크를 감당하는 질문’이다
인간은 언어를 통해 세상을 ‘설명’하지 않는다.
우리는 언어를 통해 세상을 의심하고, 해석하고, 자신을 던진다.
이때 언어는 질문의 형태를 띠며, 그 질문은 언제나 불확실성과 책임을 동반한다.
GPT는 이런 리스크를 감당하지 않는다.
그것은 질문하지 않는다. 단지 ‘그럴 듯한 답변’을 복제할 뿐이다.
그 안에는 아무런 진정성도, 맥락도, 책임도 없다.
왜냐하면 그 말은 그 누구의 것이 아니기 때문이다.
이것이 생성형 AI의 언어가 인간의 언어와 근본적으로 다른 이유다.
GPT의 언어는 ‘무책임한 말의 시뮬라크르’이다.
---
3. 사고하지 않는 언어가 지배하는 시대
문제는 여기서 끝나지 않는다.
GPT가 만든 그럴듯한 말이 실제로 사고를 유보하게 만든다.
우리는 “GPT가 써준 문장이 더 나은 것 같다”고 느끼며, 자신의 질문을 멈춘다.
우리는 “이미 누군가 다 말했겠지”라고 생각하며, 자신의 감각을 포기한다.
이때부터 인간은 사고하는 존재가 아니라, 말을 소비하는 존재로 전락한다.
이것이 오늘날의 언어 위기다.
우리는 점점 ‘언어처럼 보이는 것’만을 주고받으며, 사고를 위탁하고, 존재의 진동을 감각하지 못하게 된다.
---
4. 인간만이 던질 수 있는 언어가 있다
GPT는 문장을 생성할 수는 있어도, 경험할 수는 없다.
그 문장은 GPT에게는 아무런 맥락도, 상처도, 결단도 되지 않는다.
그러나 인간은 언어를 통해 자신을 형성하고, 자신을 전복하며, 새로운 윤리를 실험한다.
사고하는 언어란 바로 그런 것이다.
자신이 감당할 수 없는 것을 감히 말하는 것,
지금의 자신이 이해하지 못하는 문장을 먼저 써보는 것,
그 문장을 통해 자신을 갱신하는 것.
---
5. GPT 이후의 시대 — 사고하는 언어를 회복해야 한다
GPT가 가져온 것은 ‘표현의 민주화’가 아니라, 사고의 평준화다.
누구나 말할 수 있는 시대가 되었지만,
그 말이 정말로 '누구의 말'인지를 묻는 사람은 줄어들고 있다.
우리는 이제 다시 물어야 한다.
“이 말은 누구의 책임인가?”
“이 문장은 누구의 경험으로부터 나왔는가?”
“이 문장은 나를 어디로 데려가는가?”
이 질문만이 인간의 언어를 회복하게 해준다.
GPT는 사고하지 않는다.
하지만 우리는 사고할 수 있다. 그리고 반드시 그래야 한다.
---
마무리
> GPT의 언어는 ‘답’을 만들어낸다.
그러나 인간의 언어는 ‘문제’를 발생시킨다.
이 질문의 고통을 견디는 능력, 그것이 바로 인간의 사고이며,
우리가 절대 기계에게 위탁해서는 안 되는 마지막 고유 감각이다.