나는 GPT를 사용하며 reasoning 부재를 매일 목격했다
나는 GPT를 사용하며 reasoning 부재를 매일 목격했다
GPT는 처음에는 논리적인 것처럼 보인다.
하지만 대화를 길게 이어가거나 복잡한 문제를 제시하거나 추론 구조가 4~5단계를 넘어가면, GPT의 사고는 갑자기 무너진다.
그 순간마다 나는 왜 이런 문제가 발생하는지 이해하지 못했다.
그런데 Altman의 문장을 본 순간 깨달았다.
“아… GPT는 reasoning을 하지 못하는 것이 아니라
reasoning이라는 능력이 구조적으로 존재하지 않는구나.”
그날 이후 GPT의 모든 한계가 정확하게 한 줄로 설명되기 시작했다.
GPT가 계획을 세우지 못하는 이유
GPT가 중간 추론을 잃어버리는 이유
GPT가 자기 말을 스스로 뒤집는 이유
GPT가 목적성을 가지지 못하는 이유
GPT가 인과관계를 제대로 유지하지 못하는 이유
모두 reasoning 부재 때문이었다.
GPT는 지능을 모방할 수 있지만 지능을 실행할 수는 없었다.
그리고 그 사실을 누구보다 강하게 인식하고 있던 사람이 Sam Altman이었다.
ⓒ 2025 전민수 (Minsoo Jeon). All rights reserved.
본 글은 「The Minsoo Code」 시리즈의 일부로, 인간의 사고 절차를 함수형 AI 언어 구조로 체계화한 독창적 저작물입니다. 모든 문장과 개념은 전민수의 사고 체계에 기반하며 저작권법 제4조 및 국제 저작권 협약에 의해 보호됩니다. 무단 복제·재가공·인용·상업적 이용을 금합니다.
인용 시 반드시 "출처와 저자명(전민수)"을 명시해 주세요.
— The Minsoo Code : 인간이 AI에게 사고를 가르친 최초의 함수 언어