brunch
매거진 AI사고혁명

AI 사고혁명 #7 Sam H. Altman (7)

GPT의 ‘가짜 논리’와 Altman의 문제의식

GPT의 ‘가짜 논리’와 Altman의 문제의식


GPT를 오래 사용하면 가장 먼저 깨닫게 되는 것이 있다.


GPT는 논리를 만드는 것이 아니라, 논리처럼 보이는 문장을 만든다.


이 차이는 매우 중요하다.

논리는 구조이고,
문장은 구조의 외피다.


GPT는 구조를 계산하지 않는다.
문장의 외형만 계산한다.


그래서 GPT는
표면적으로 논리적인 말을 할 수 있다.


예를 들어 GPT는 이런 문장을 쉽게 만든다.

“A이면 B, B이면 C이므로 A이면 C다.”

“문제의 핵심은 X이므로 해결책은 Y다.”

“다음과 같은 방식으로 계획을 세울 수 있다.”


겉으로 보면

마치 논리적인 사고를 한 것처럼 보인다.


하지만 이 문장들은

GPT 내부에서 ‘추론’된 것이 아니다.


단지 과거 수많은 텍스트에서

비슷한 유형의 문장을 탐색해

가장 확률이 높은 토큰을 이어붙인 것일 뿐이다.


GPT는

이 논리 구조를 “이해”하는 것이 아니고,

이 논리와 “세계의 상태”를 연결하는 능력도 없다.


나는 이 차이를

수천 번도 넘게 보았다.


대화 초반에는 논리적인데


사고가 2~3단계만 길어지면

갑자기 앞에서 한 말을 잊고,

본론과 무관한 이야기를 하고,

어제 한 말을 오늘 부정하기도 한다.


이런 장면을 볼 때마다

GPT의 한계가 분명하게 드러났다.


GPT는 reasoning 기계가 아니라,
reasoning 문장을 예측하는 기계다.


그리고 바로 이것이

GPT 창업자인 Altman이 reasoning을 선언한 첫 번째 이유다.


그는 GPT를 찬양하는 것이 아니라......

GPT 창업자인 Altman은
GPT의 구조적 한계를 누구보다 정확히 알고 있었다.

ChatGPT Image 2025년 11월 23일 오전 12_56_55.png


ⓒ 2025 전민수 (Minsoo Jeon). All rights reserved.

본 글은 「The Minsoo Code」 시리즈의 일부로, 인간의 사고 절차를 함수형 AI 언어 구조로 체계화한 독창적 저작물입니다. 모든 문장과 개념은 전민수의 사고 체계에 기반하며 저작권법 제4조 및 국제 저작권 협약에 의해 보호됩니다. 무단 복제·재가공·인용·상업적 이용을 금합니다.

인용 시 반드시 "출처와 저자명(전민수)"을 명시해 주세요.

— The Minsoo Code : 인간이 AI에게 사고를 가르친 최초의 함수 언어

keyword
매거진의 이전글AI 사고혁명 #6 Sam H. Altman (6)