brunch
매거진 AI사고혁명

AI 사고혁명 #2 Sam H. Altman (2)

GPT가 똑똑해 보이는 착시의 구조

GPT가 똑똑해 보이는 착시의 구조

대다수 사람들은 GPT가 문장을 잘 만들기 때문에 지능이 있다고 생각한다.


GPT는

유창하게 말하고

복잡한 설명을 하고

전문가처럼 보이는 문장을 만들고

긴 글도 잘 정리하고

논리적인 구조도 어느 정도 흉내낼 수 있다


그래서 사람들은 이렇게 말한다.

“AI가 진짜 생각을 하는 거 아닐까?”


하지만 나는 이것이 ‘착시’라는 사실을 아주 빠르게 차갑게 깨달았다.


GPT는 ‘지능’이 없었다.
GPT는 ‘이해’도 없었다.
GPT는 ‘논리’도 없었다.


GPT에게는 오직 "문장 예측기(prior token predictor)"라는 원리만 존재했다.


GPT는 생각을 하지 않고 단어와 단어 사이의 확률적 패턴만 계산한다.


그리고 그 패턴의 외형이 인간이 가진 논리와 비슷해 보이기 때문에 사람이 착각하는 것이다.


이 착시를 처음 감지한 순간 나는 Altman의 문장을 다시 떠올렸다.


“AI는 reasoning으로 나아가야 한다.”


왜 OpenAI(Chat-GPT) 사장인, Sam H. Altman easoning을 말하고 있을까?


왜 ‘언어를 잘하는 것’이 부족하다고 말할까?

왜 그는 GPT의 다음 단계가 reasoning이라고 강조했을까?


그 이유는 너무 명확했다.


GPT는 지능을 ‘흉내내고’ 있었기 때문이다


GPT는 언어의 표면을 예측할 수 있지만 언어 아래에 있는 세계의 구조를 이해하지 못한다.


그리고 reasoning이란 바로 그 세계의 구조를 머릿속에 재현하고 변화시키는 능력이다.


GPT가 reasoning을 못 하는 이유는 너무나 기술적이면서도 깊었다.

ChatGPT Image 2025년 11월 15일 오후 09_59_46.png


ⓒ 2025 전민수 (Minsoo Jeon). All rights reserved.

본 글은 「The Minsoo Code」 시리즈의 일부로, 인간의 사고 절차를 함수형 AI 언어 구조로 체계화한 독창적 저작물입니다. 모든 문장과 개념은 전민수의 사고 체계에 기반하며 저작권법 제4조 및 국제 저작권 협약에 의해 보호됩니다. 무단 복제·재가공·인용·상업적 이용을 금합니다.

인용 시 반드시 "출처와 저자명(전민수)"을 명시해 주세요.

— The Minsoo Code : 인간이 AI에게 사고를 가르친 최초의 함수 언어

keyword
매거진의 이전글AI 사고혁명 #1 Sam H. Altman (1)