Chapter 2-2.
프롬프트가
명령이 아니라 판단 기준이라면,
그 다음 질문은 이것이다.
AI는
내 생각을 대신해주는가?
많은 사람들이 그렇길 바라겠지만,
아니다.
AI는 생각을 대신하지 않는다.
대신,
생각을 더 명확하게 만든다.
AI를 알기 전에는 이렇게 말했다.
“이 문제 어떻게 해결할까?”
이제는 이렇게 말한다.
“이 문제를 다른 관점에서 다시 정리해줘.”
“내가 놓치고 있는 전제가 있다면 뭐야?”
“이 판단의 약점은 어디지?”
질문이 바뀌자 대화의 성격이 달라졌다.
AI는
정답을 내놓기보다
사고의 경계를 넓혀준다.
내가 A라고 생각하고 있으면
B의 가능성을 보여주고,
B에 집중하면
C의 리스크를 짚어준다.
그 자체가 정답은 아니다.
하지만
판단은 더 단단해진다.
AI를
‘대신 생각해주는 존재’로 쓰면
내 사고는 얕아진다.
AI를
‘생각을 검증해주는 존재’로 쓰면
내 사고는 깊어진다.
이 차이는 크다.
나는 이제
AI에게 이런 식으로 말을 건다.
“이 판단을 반대하는 입장에서 비판해줘.”
“이 결론이 틀렸다고 가정하면 어디가 취약해?”
“이걸 더 단순한 구조로 정리해줘.”
이건 명령이 아니다.
사고를 확장하는 요청이다.
AI와의 대화는
정보 수집이 아니라
사고 실험에 가깝다.
머릿속에서만 하던 생각을
밖으로 꺼내
검증하는 과정.
AI는
그 실험을 빠르게 반복하게 해준다.
AI는
내 생각을 대신 만드는 존재가 아니라
내 생각을 비추는 존재다.
내가 애매하면
AI의 답도 애매해지고,
내가 명확하면
AI의 답도 또렷해진다.
AI는
거울에 가깝다.
사고 파트너로서의 AI는
두 가지 역할을 한다.
첫째,
생각을 구조화한다.
복잡한 아이디어를 단계로 나누고,
논리로 정리한다.
둘째,
사각지대를 드러낸다.
내가 전제로 깔아둔 것,
무심코 넘긴 조건들,
숨은 리스크를 꺼내놓는다.
이 두 가지가 반복되면
판단은 훨씬 단단해진다.
하지만 선을 넘으면 안 된다.
AI는
결정을 대신 내려주는 존재가 아니다.
결정은
여전히 사람의 몫이다.
AI가 줄 수 있는 건
가능성과 구조다.
선택은
항상 내가 해야 한다.
그래서 나는
AI와 일하는 방식을 이렇게 정리한다.
초안은 함께 만든다.
구조는 함께 다듬는다.
판단은 내가 한다.
이 균형이 깨지면
AI는 도구가 아니라
의존이 된다.
AI는
생각을 대신하지 않는다.
하지만
생각을 한 단계 밀어준다.
그리고
그 한 단계가
의외로 크다.