질문의 온도를 낮추기로 했다
네 번째 ‘다시 시도’ 버튼을 눌렀다.
같은 질문을 네 번 수정한 상태였다.
AI의 답은 장황했지만 정밀하지 않았다.
틀리지는 않았으나,
내가 원하는 결론에 도달하지도 못했다.
나는 문장을 다시 고쳤다.
조금 더 구체적으로, 조금 더 공손하게.
그 순간 이상하다는 생각이 들었다.
나는 지금 답을 고치고 있는가,
아니면 나의 태도를 고치고 있는가.
관찰: 반복되는 패턴
대화 기록을 처음부터 다시 읽었다.
불필요한 배경 설명.
의도를 흐리는 완곡한 표현.
결과가 마음에 들지 않을 때마다 덧붙인 미묘한 감정.
질문이 길어질수록 답은 점점 넓어졌다.
정확해지지 않고, 범위만 확장되었다.
나는 더 많은 설명을 추가했고,
시스템은 그 설명을 모두 처리하려 했다.
그 과정에서 핵심은 희미해졌다.
그제야 이해했다. 문제는 답변이 아니라
입력값(Input)이었다.
분석: 감정이라는 노이즈
나는 구조를 설계하기보다 태도를 설계해왔다.
목적과 제약을 명확히 정의하는 대신,
“잘 부탁한다”는 신호를 보내는 데
더 많은 에너지를 썼다.
그러나 논리 기반 시스템에게 감정은
의미를 추론해야 하는 추가 데이터일 뿐이다.
데이터가 늘어나면 해석 비용이 증가한다.
해석 비용이 증가하면 결과는 흐려진다.
내 질문은 정보보다 뉘앙스가 많았다.
정확도는 떨어질 수밖에 없었다.
문제는 지능이 아니라 입력값의 온도였다.
재설계: 질문을 쓰기 전에 생각을 구조화하다
나는 방식을 바꿨다.
키보드를 치기 전, 종이에 세 항목만 적었다.
1. Context (배경): 현재 시스템의 상태
2. Constraint (제약): 넘지 말아야 할 선
3. Goal (목표): 도달해야 할 최종 결과값
그 외의 문장은 삭제했다.
“미안하지만 이것 좀 봐줄래?”라는 문장을 지우고,
‘Goal: 오차율 5% 이상의 변수 추출’만 남겼다.
질문에서 온도를 덜어내고 구조를 이식하는 순간이었다.
변화: 줄어든 것은 트래픽, 늘어난 것은 선명도
변화는 생각보다 빠르게 나타났다.
답변은 짧아졌다. 대신 정확해졌다.
핵심이 중심을 벗어나지 않았다.
해석이 아니라 계산처럼 보였다.
이 방식은 AI 대화에만 적용되지 않았다.
메신저 문장이 짧아졌고,
의사결정은 리스트로 정리되었다.
오해는 줄었고 결론은 빨라졌다.
감정을 빼자 생각이 흐를 통로가 넓어진 것이다.
이 연재는 AI 활용법에 대한 기록이 아니다.
질문의 구조를 바꾸면 사고의 정확도가
어떻게 달라지는지에 대한 실험이다.
나는 질문의 온도를 낮추기로 했다.
그 이후, 결과는 선명해졌다.
이제 질문의 설계 과정을 하나씩 기록해 보려 한다.
3줄 요약
• AI의 오답은 대개 질문 구조의 결함에서 비롯된다.
• 감정은 시스템에게 처리 비용이 높은 데이터(트래픽)다.
• 구조화된 질문은 AI뿐 아니라 삶의 해상도를 높인다.