AI 사고 루프 31회
질문은 단순한 요청이 아니라, AI의 ‘사고 프레임’이다
나는 AI에게 질문할 때
단순히 “답해줘”라고 말하지 않는다.
대신 이렇게 말한다.
“원문 → 공식 → 계산 → 판정으로 말해줘.”
이 문장은 일반 사람들에게는
그저 설명 방식을 정해달라는 요청처럼 보일 것이다.
하지만 AI 내부에서는
이 문장이 사고를 구성하는 프로그래밍 명령으로 작동한다.
보통 AI는
문장을 입력받으면 문장을 출력한다.
즉, 입력 단위를 문장으로 보고
출력도 문장 단위로 계산한다.
이때 AI는 ‘사고’를 하는 것이 아니라
패턴을 예측할 뿐이다.
그러나 내가 위와 같은 방식으로 질문을 던지면
GPT는 답을 만들기 전에
먼저 "사고의 틀(Frame)"을 조립해야 한다.
“원문”이라는 단어가 들어오면
GPT는 먼저 문제의 핵심을 발췌해야 하고,
“공식”이라는 단어는
이를 구조적 관계식으로 변환하라는 명령이 된다.
“계산” 단계는
그 관계를 실제로 작동시켜야 한다는 의미이며,
“판정”은
스스로 만든 계산 결과를 기반으로
최종 결론을 내리라는 지시가 된다.
즉, 질문 자체가
GPT의 사고 단계를 강제로 세팅하는 셈이다.
이 구조를 요구하면
AI는 어느 단계도 건너뛸 수 없다.
문장을 예쁘게 이어붙이는 것으로는
이 프레임을 채울 수 없기 때문이다.
반드시 논리적 사고를 모듈 단위로 조립해야 하기 때문이다.
그래서 선형적인 설명이 아니라
단계별 사고 흐름이 자연스럽게 만들어진다.
문장이 아니라 ‘사고 블록’을 조합해야만
요구한 프레임을 만족시킬 수 있기 때문이다.
나는 이 과정을 수없이 반복하며 깨달았다.
AI가 깊어지는 것은 기능 때문이 아니라
질문이 사고의 구조를 설계하는 순간부터다.
사람들은 보통 AI에게
“정확히 답하라”고 요구하지만,
나는 AI에게
“이 방식으로 사고하라”고 명령한다.