정답의 정확성보다 AI의 '태도'를 의심해야 하는 이유
최근에 사회 동료들과 AI 이야기를 하다가 조금 놀란 적이 있다.
내가 생각했던 것보다 많은 사람들이 AI를 꽤 제한된 방식으로 쓰고 있었다. 모르는 것을 물어보고, 자료를 찾고, 정리된 답을 받는 용도. 물론 그것만으로도 충분히 유용하다. 실제로 대부분의 사람에게 AI는 그 정도만으로도 이미 강력한 도구다.
그런데 나는 AI를 조금 다르게 써왔다.
적어도 내게 AI는 단순히 모르는 것을 물어보는 대상만은 아니었다. 지금 벌어진 현상을 정리해 달라고 묻기보다, 앞으로 어디로 갈 것 같은지, 지금의 선택이 나중에도 맞을지, 이 방향이 정말 버틸 수 있을지 같은 질문을 더 자주 던졌다. 이미 정리된 사실보다, 아직 오지 않은 쪽에 대해 더 많이 물었다.
아마 그 시작에는 1편에서 썼던 불안이 있었던 것 같다.
“내가 만들고 있는 이 시스템이 AI가 발전하면서 대체되지는 않을까.”
이 생각이 늘 머릿속에 있었다. 그래서 매번 확인했다. AI한테 시장 동향을 물어보고, 경쟁사를 분석하고, 내가 만들고 있는 시스템이 아직 쓸모가 있는지를 끊임없이 검증받았다. 확인할 때마다 “아직 괜찮다”는 답을 받았다. 그런데 이상하게도 불안은 사라지지 않았다.
지금 생각해 보면, 그 이유는 단순했다.
나는 답을 듣고 있었지만, 그 답을 완전히 믿지는 못했던 거다. 더 정확히 말하면, 답의 내용보다 답이 만들어지는 결이 더 신경 쓰였던 것 같다.
정말 괜찮아서 괜찮다고 말하는 건지, 아니면 가능성을 넓게 열어두는 방식으로 답하고 있는 건지.
현실을 냉정하게 보고 있는 건지, 아니면 너무 쉽게 긍정 쪽으로 기울고 있는 건지.
그때는 그걸 분명하게 설명하지 못했지만, 지금 돌아보면 나는 이미 AI의 답변 태도 같은 것을 경계하고 있었던 셈이다.
그런 질문을 오래 던지다 보니 자연스럽게 보이는 것도 있었다. 모델마다 결이 다르다는 것. 같은 질문을 해도 어떤 모델은 빠르게 실행 가능한 쪽으로 답하고, 어떤 모델은 구조를 정리하는 데 강하고, 어떤 모델은 넓게 훑으며 가능성을 많이 던진다. 겉으로 보면 다 비슷하게 똑똑해 보이지만, 오래 붙들고 있으면 결이 분명히 다르다.
특히 제미나이를 보면서는 한 가지를 자주 느꼈다.
대체로 긍정적으로 답한다는 것. 미래를 물으면 가능성을 열어두고, 방향을 물으면 확장성을 보고, 위험을 묻더라도 너무 일찍 닫지 않으려는 경향이 있었다.
예를 들어 내가 “이 구조가 2년 뒤에도 버틸 수 있겠느냐”라고 물으면, 대체로 가능성을 열어두는 쪽으로 답했다. 시장 확장성, 기술 진화, 새로운 수요의 가능성을 이야기했다.
틀린 말은 아니었다. 하지만 내가 듣고 싶었던 건 가능성의 목록이 아니라, 지금 이 구조가 어디에서 먼저 무너질 수 있는지에 대한 냉정한 판단이었다. 처음에는 그게 장점처럼 느껴졌다. 시야가 넓고, 열려 있고, 쉽게 비관으로 기울지 않는다는 점에서 분명 쓸모가 있었다.
그런데 어느 순간부터는 그 긍정성이 조금 다르게 보이기 시작했다. 좋은 답이라는 느낌과, 경계해야 한다는 느낌이 동시에 들었다.
왜냐하면 내가 미래를 묻고 방향을 묻고 구조를 묻고 있을 때,
지나치게 긍정적인 답은 그 자체로 하나의 편향이 될 수 있기 때문이다. 가능성을 많이 보여주는 것과, 정말 현실적인 방향을 짚어주는 것은 다른 일이다.
그래서 문득 궁금해졌다.
이 모델은 도대체 어떤 방식으로 답을 만드는 걸까. 정말로 낙관적인 걸까. 아니면 낙관적으로 보이도록 학습된 걸까. 아니면 내가 그렇게 느끼도록 말하는 방식 자체가 설계된 걸까.
그래서 제미나이에게 직접 물어봤다. 너는 어떤 사고를 하느냐고.
돌아온 답은 예상대로 꽤 AI 다웠다. 자신은 감정도 자아도 없고, 피로감도 없고, 미래를 두려워하지도 않으며, 방대한 데이터 속에서 문맥을 파악하고 가장 적절한 패턴을 계산하는 쪽에 가깝다고 했다. 인간처럼 사유하는 것이 아니라, 처리하고 계산하는 방식에 가깝다는 설명이었다.
기술적으로는 맞는 말일 것이다.
나도 그 설명 자체가 틀렸다고 생각하지는 않는다. 그런데 이상하게도, 그 답을 읽고 나서 내 궁금증이 해소되지는 않았다. 오히려 조금 다른 쪽으로 생각이 옮겨갔다.
내가 정말 궁금했던 건 “AI의 내부가 정확히 어떻게 작동하는가”가 아니었던 것 같다.
그건 연구자나 엔지니어가 더 깊게 다룰 문제일 수 있다. 내가 진짜 궁금했던 건, 왜 어떤 모델은 비슷한 상황에서 더 낙관적으로 말하고, 어떤 모델은 더 구조적으로 말하고, 어떤 모델은 더 실행 쪽으로 빨리 내려오는 가였다. 즉 답의 내용보다도, 답을 밀어내는 '태도'와 '방향'에 더 관심이 갔던 것이다.
그때부터 나는 AI의 답을 읽는 방식이 조금 달라졌다.
예전에는 답이 맞는지, 틀린 지, 도움이 되는지를 먼저 봤다.
지금은 그보다 먼저 이 답이 나를 어느 쪽으로 끌고 가고 있는지를 본다. 내가 말하는 ‘태도’는 감정이 아니다. 같은 질문 앞에서 무엇을 먼저 보여주는가의 문제다. 가능성을 먼저 여는지, 위험을 먼저 짚는지, 구조를 세우는지, 실행으로 내려오는지. 나는 요즘 그 순서와 기울기를 같이 본다.
이 차이는 생각보다 컸다.
왜냐하면 미래지향적인 질문일수록 정답이 없기 때문이다. 시장이 어떻게 바뀔지, 어떤 기술이 살아남을지, 지금의 선택이 나중에도 맞을지는 아무도 확신할 수 없다. 그런 질문 앞에서 AI는 사실을 정리하는 기계가 아니라, 하나의 방향성을 띤 응답을 만들어내는 존재가 된다. 그리고 그 방향성은 모델마다 조금씩 다르다.
그래서 이제는 AI가 무슨 답을 했는지만 보는 것으로는 부족하다고 느낀다.
어떤 어조로 답했는지, 얼마나 쉽게 가능성을 열어줬는지, 어디에서 위험을 축소했는지, 무엇을 당연한 전제로 두고 말했는지까지 같이 보게 된다. 특히 미래를 묻는 질문에서는 더 그렇다. 답의 정확성보다 답의 기울기가 더 중요할 때도 있다.
돌이켜보면, 이것도 11화와 완전히 다른 이야기는 아니다. 11화에서 내가 느낀 건 AI가 높은 곳에서 전체를 오래 붙들지 못하고 자꾸 단편으로 내려온다는 것이었다. 이번에는 거기서 한 걸음 더 나갔다. AI가 어떤 높이까지 따라오느냐의 문제만이 아니라, 어떤 방향으로 나를 끌고 가느냐의 문제도 함께 보기 시작한 것이다.
이건 생각보다 실전적인 감각이다.
내가 AI에게 묻는 질문이 단순한 정보 확인이 아니라, 방향과 판단과 미래에 대한 것이라면 더 그렇다. 이때는 “좋은 답변”보다 “어떤 성향의 답변인가”가 중요해진다. 똑같이 유창하고, 똑같이 논리적이고, 똑같이 그럴듯해 보여도 그 안에 담긴 태도는 서로 다를 수 있다.
그래서 요즘의 나는 AI를 조금 더 경계하면서 쓴다.
불신한다는 뜻은 아니다.
오히려 반대다. 너무 유용하기 때문에 더 경계하게 된다. 빠르고, 그럴듯하고, 많이 알고, 많이 보여주기 때문에 그 안에 섞인 방향성까지 같이 읽어야 한다고 느낀다.
제미나이를 경계하게 된 것도 그런 맥락에 가깝다.
긍정적으로 답한다는 건 나쁜 뜻이 아니다. 다만 미래를 묻는 사람에게 긍정성은 때로 강한 설득으로 작동한다.
가능성은 넓어 보이고, 방향은 맞는 것처럼 보이고, 지금 가는 길이 더 자연스럽게 느껴진다. 그래서 오히려 한 번 더 멈춰서 봐야 한다.
AI는 생각하는가. 아니면 처리하는가.
아직 나는 그 질문에 대해 단정하고 싶지는 않다. 다만 여기까지는 말할 수 있다.
AI의 답을 오래 읽다 보면, 어떤 모델은 답변의 내용보다 답변의 태도에서 더 많은 것을 드러낸다.
이제 내게 중요한 건 AI가 무슨 답을 했는지가 아니다. 그 답이 나를 어느 방향으로 끌고 가고 있는가다.
ZeroInput — AI 시대의 경계에서 직접 부딪혀본 것들을 기록합니다.