AI 사고 루프 29회
AI는 ‘예외를 묻는 순간’부터 진짜 사고를 시작한다
나는 AI에게 질문할 때
항상 이렇게 묻는다.
“그런데 예외는 뭐야?”
“이 조건에서는 어떻게 달라져?”
“경계값에서는 모델이 어떻게 판단해?”
많은 사람들은 규칙을 알려달라고 한다.
하지만 나는 예외와 반례부터 먼저 확인한다.
왜냐하면
예외를 묻는 것은 단순한 디테일 요청이 아니라
AI에게 고급 사고 구조를 강제하는 명령이기 때문이다.
규칙은 패턴으로도 생성할 수 있다.
그러나 예외는 패턴만으로는 만들 수 없다.
예외를 설명하려면
AI는 먼저 규칙을 정립하고,
그 규칙이 적용되지 않는 상황을 분리하고,
그 이유를 다시 추론해야 하기 때문이다.
즉, 예외를 묻는 순간
GPT 내부에서는 다음과 같은 사고 루프가 작동한다.
(1) 규칙 생성
— 문제를 일반화하고 구조화한다.
(2) 예외 탐색
— 일반화가 실패하는 지점을 찾는다.
(3) 경계 조건 분석
— 규칙이 무너지는 임계점을 계산한다.
(4) 반례 검증
— 논리가 스스로와 충돌하지 않는지 확인한다.
이건 AI에게 단순히 “답해줘”라고 하는 것이 아니라
“논리의 범위와 한계를 스스로 설정하라”는 명령이다.
나는 이 과정을 반복하면서 깨달았다.
규칙만 있으면 설명이 가능하지만,
예외를 함께 다루면 비로소 사고의 완성도가 생긴다.
예외를 묻는다는 것은
AI에게 추상화와 구체화를 동시에 실행하라는 요구이고,
경계값을 요구하는 것은
AI로 하여금 "논리의 끝단”까지 탐색하게 만드는 과정이다.
그래서 AI는 예외 질문을 받으면
단순한 지식 제공 모드에서 벗어나
구조·패턴·한계·변수를 통합하는
고차원적 사고 모드로 이동한다.
많은 사람들은
AI가 무조건 똑똑하다고 느낀다.
하지만 내가 보기엔 다르다.
AI가 똑똑해서가 아니라,
예외를 묻는 사람이 AI에게 고급 사고를 강제했기 때문이다.