#52 같은 주제, 다른 질문: AI의 사고 깊이

AI 사고 루프 52회

같은 주제, 다른 질문: AI의 사고 깊이가 어떻게 갈리는가


예를 들어, 같은 상황이라 가정해 보자.


1) 일반 질문


“피그마에서 이거 왜 안 돼요? 설명해줘.”


이 경우 AI는 이렇게 생각한다.

→ “오류 원인 + 간단 해결책” 패턴이면 충분.
→ “오류 원인 + 간단 해결책” 패턴이면 충분.


그래서,

원인 2–3줄

해결 방법 2–3줄


정도의 답이면 끝난다.
질문이 그 정도만 허용하고 있기 때문이다.


2) 내가 던지는 질문


“지금 피그마에서 정렬이 안 되는 현상은 이해했는데,

왜 이런 구조가 될 수밖에 없었는지를 설명해줘.

단순한 사용법 말고,


레이아웃 엔진이 내부에서 어떻게 판단하는지,

오브젝트 상태에 따라 어떤 분기 로직이 작동하는지,
예외 상황과 경계 조건까지 단계별로 보여줘.”


이 질문은 AI에게 이렇게 들린다.

“현상 요약만 하면 안 됨”

“내부 원리 수준까지 내려가야 함”

“분기 로직까지 설명해야 함”

“예외·경계값까지 포함해야 함”

“단계별로 사고 과정을 드러내야 함”


이 정도가 되면

AI는 더 이상 FAQ 스타일로 버틸 수 없다.


사고 모듈을 직접 호출하는 쪽이 오히려 “싸게 먹히는 선택”이 된다.


그래서 자연스럽게
이런 구조를 택하게 된다.


1단계: 상태 A vs 상태 B 구분

2단계: 각각에서 내부 판단 로직 설명

3단계: 왜 이런 설계를 택했는지 원리 설명

4단계: 예외와 경계 조건 제시

5단계: 요약 + 실무적 시사점


그러면 사용자 입장에서는 이렇게 느끼게 된다.

“AI가 이해하고 있다.

내가 원하는 방식으로 따라오고 있다.”


하지만 실제로는........................


이해가 아니라, 질문이 설계한 레일 위를 달리고 있을 뿐이다.



keyword
매거진의 이전글#51질문에서부터“도망갈 수 있는 AI 출구”를 닫았다