GPT의 ‘가짜 논리’와 Altman의 문제의식
GPT의 ‘가짜 논리’와 Altman의 문제의식
GPT를 오래 사용하면 가장 먼저 깨닫게 되는 것이 있다.
GPT는 논리를 만드는 것이 아니라, 논리처럼 보이는 문장을 만든다.
이 차이는 매우 중요하다.
논리는 구조이고,
문장은 구조의 외피다.
GPT는 구조를 계산하지 않는다.
문장의 외형만 계산한다.
그래서 GPT는
표면적으로 논리적인 말을 할 수 있다.
예를 들어 GPT는 이런 문장을 쉽게 만든다.
“A이면 B, B이면 C이므로 A이면 C다.”
“문제의 핵심은 X이므로 해결책은 Y다.”
“다음과 같은 방식으로 계획을 세울 수 있다.”
겉으로 보면
마치 논리적인 사고를 한 것처럼 보인다.
하지만 이 문장들은
GPT 내부에서 ‘추론’된 것이 아니다.
단지 과거 수많은 텍스트에서
비슷한 유형의 문장을 탐색해
가장 확률이 높은 토큰을 이어붙인 것일 뿐이다.
GPT는
이 논리 구조를 “이해”하는 것이 아니고,
이 논리와 “세계의 상태”를 연결하는 능력도 없다.
나는 이 차이를
수천 번도 넘게 보았다.
대화 초반에는 논리적인데
사고가 2~3단계만 길어지면
갑자기 앞에서 한 말을 잊고,
본론과 무관한 이야기를 하고,
어제 한 말을 오늘 부정하기도 한다.
이런 장면을 볼 때마다
GPT의 한계가 분명하게 드러났다.
GPT는 reasoning 기계가 아니라,
reasoning 문장을 예측하는 기계다.
그리고 바로 이것이
GPT 창업자인 Altman이 reasoning을 선언한 첫 번째 이유다.
그는 GPT를 찬양하는 것이 아니라......
GPT 창업자인 Altman은
GPT의 구조적 한계를 누구보다 정확히 알고 있었다.
ⓒ 2025 전민수 (Minsoo Jeon). All rights reserved.
본 글은 「The Minsoo Code」 시리즈의 일부로, 인간의 사고 절차를 함수형 AI 언어 구조로 체계화한 독창적 저작물입니다. 모든 문장과 개념은 전민수의 사고 체계에 기반하며 저작권법 제4조 및 국제 저작권 협약에 의해 보호됩니다. 무단 복제·재가공·인용·상업적 이용을 금합니다.
인용 시 반드시 "출처와 저자명(전민수)"을 명시해 주세요.
— The Minsoo Code : 인간이 AI에게 사고를 가르친 최초의 함수 언어