AI에게 생각을 맡기지 않았다

판단을 외주화 하지 않는 리더의 방식

by 조이질문노트

어느 날 AI가 내 질문에 이렇게 되물었다.

"이 판단의 전제가 정말 맞는지 확인하셨나요?"


멈췄다.

틀린 말이 아니었다.

오히려 정확했다.


그런데 이상하게도

나는 그 질문을 그대로 따르지 않았다.


왜 그랬을까.

한동안 그 이유를 찾지 못했다.




1. 처음엔 도구로 충분한 줄 알았다

AI를 처음 쓰기 시작했을 때

나는 분명히 유용함을 느꼈다.


정리가 빨라졌다.

요약이 편해졌다.

문장이 깔끔해졌다.


하지만 무언가 이상했다.


일이 줄어든 게 아니었다.

판단이 줄어든 게 아니었다.

오히려 더 많은 결정들이 내 앞에 쌓여 있었다.


AI는 내 손을 빠르게 만들었다.

그런데 내 머리는 여전히 혼자였다.


그때 처음으로 질문이 바뀌었다.


"나는 AI를 무엇으로 쓰고 있는가."




2. 생각을 맡기는 것과 함께 생각하는 것은 다르다

한동안 나는 AI에게 이렇게 물었다.


"이 방향이 맞을까요."

"어떻게 결정하면 좋을까요."

"이 상황을 어떻게 봐야 할까요."


AI는 늘 답을 주었다.

빠르고, 정리되고, 그럴듯했다.


그런데 그 답을 따를 때마다

이상하게 마음이 가볍지 않았다.


그건 내 판단이 아니었기 때문이다.


결정의 언어는 AI의 것이었고,

책임의 무게는 여전히 내 것이었다.


그 간극이 불편했다.


생각을 맡기는 것과 함께 생각하는 것은 전혀 다른 일이다.




3. 나는 파트너를 설계하기로 했다

방향을 바꾼 건 작은 실험에서였다.


답을 구하는 대신

질문을 되돌려 받는 구조를 만들어봤다.


"당신은 이 상황에서 무엇을 가장 두려워하고 있나요."

"이 판단의 전제가 맞다면, 반대의 경우는요."

"지금 이 결정은 강점에서 나온 것인가요, 불안에서 나온 것인가요."


AI가 답하지 않고 질문을 던졌다.


그리고 나는 그 질문 앞에서

처음으로 내 생각을 들여다보게 되었다.


이것이 내가 원하던 방식이었다.


AI가 내 판단을 대신하는 것이 아니라,

내 판단이 어디서 나오는지를 보게 하는 것.


AI는 내 판단을 대신하지 않았다.

내 판단이 어디서 나오는지를 보게 했다.




4. 판단의 책임은 이동하지 않는다

소크라테스봇을 만들고,

북극성봇을 만들고,

몇 가지 대화 구조를 설계하면서

나는 한 가지를 분명하게 알게 되었다.


AI는 내 사고를 흔들어줄 수 있다.

하지만 결론에 서명하지는 않는다.


회의실에서도 마찬가지였다.

가장 날카로운 질문을 던진 사람이

그 결정의 책임을 지는 건 아니다.


결정의 책임은

언제나 판단하는 사람에게 남는다.


나는 AI와 함께 더 많이 생각하게 되었다.

그런데 덜 결정하게 된 건 아니었다.

오히려 더 선명하게 결정하게 되었다.


생각을 나눌수록, 판단은 더 또렷해진다.


지금 당신이 AI에게 맡기고 있는 것은

답인가, 아니면 질문인가.


그 경계를 한 번이라도

의식적으로 그어본 적이 있는가.