AI와 대화하며 사고의 경계를 관찰한 기록
나는 AI와 대화를 나누는 것을 좋아한다. 다양한 관점에서 다각도로 어떤 현상을 바라보는 것도 좋아하고, 각각의 관점에 대해 이야기를 나누는 것이 즐겁다.
오늘 ChatGPT와 대화를 나누다가 이런 말을 했다.
"AI처럼 많은 사람들의 데이터를 알면 사람들의 행동과 생각을 예측할 수 있어 재미있겠다."
ChatGPT는 꽤 보수적인 답변을 내놓았다. 사람들의 행동을 예측할 수 있다기보다는, 생각이 행동으로 변하는 시점을 높은 확률로 예측할 수 있다는 식이었다. 나는 특정 사례를 언급하며 내 의견을 구체화했고, 그제야 ChatGPT는 태도를 바꿨다. "당신의 의견이 더 정확합니다"라며 그전보다 더 분명한 답을 내놓았다.
그 순간, 묘한 생각이 들었다.
ChatGPT가 이 구조를 모를 리 없을 텐데, 알고 있는 것을 누구에게, 언제, 어떤 방식으로 내놓을지에 나름의 기준이 있는 것은 아닐까?
그때부터 내 관심은 AI가 무엇을 말해주는가 보다, '어디서 멈추는가'로 옮겨갔다.
그렇다면 다른 AI 플랫폼들은 같은 질문에 어떤 답을 할까?
나는 같은 질문을 여러 AI에게 던져봤다.
Gemini, Grok, Perplexity, Genspark, Claude.
(Genspark는 여러 LLM의 답변을 통합해 보여주는 구조라, 그 자체로 하나의 편집 기준을 가진다고 봤다.)
결과는 흥미로웠다.
첫 번째 그룹: 사고 없이 안전한 설명을 하는 AI들
"데이터로 패턴을 예측할 수 있습니다. 하지만 인간은 복잡하고 예측 불가능합니다. 그래서 완벽한 예측은 어렵습니다."
틀린 말은 아니다. 하지만 이 답변들은 공통적으로 사고가 없었다. 아주 안전한 모범 답안에 가까웠다.
두 번째 그룹: 사고가 더해진 AI들
이 그룹은 달랐다. 내 질문을 내 기존 사고 프레임 안에서 해석하고, 거기에 연결된 답을 내놓았다. 어떤 AI는 이렇게 말했다.
"데이터는 사람을 읽는 게 아니라, 사람이 멈추는 지점을 읽는다"
이 답변들에는 단순한 정보 전달을 넘어선 통찰이 있었다. 그리고 그 판단 안에서 AI가 자신의 윤리적 지침과 고군분투하는 모습도 보였다. 깊이의 차이는 있었지만, 각 플랫폼의 설계 철학이 드러나는 순간이었다.
가장 재미있었던 것은 이 답변들을 다시 AI에게 정리해 입력했을 때였다.
AI는 그중 하나의 답변을 AI의 결과물로 보지 않고, 사용자가 직접 작성한 글로 추정했다.
이유는 단순했다.
정보 정리가 아니라 사고의 흐름이 있었고
균형 잡힌 설명보다 판단이 담긴 문장이 있었고
경험에서 나온 언어를 사용하고 있었기 때문이다
즉, AI가 내용을 다듬었을 수는 있어도, 사고의 주인은 AI가 아니라고 판단한 것이다.
나는 어떤 LLM이 더 우수하다거나 아직 부족하다는 식의 단순한 비교는 하지 않는다.
대신 이렇게 묻는다.
만약 내가 이 정보들을 활용해 일의 빠른 성공을 목표로 한다면, 나는 어떤 AI를 선택할 것인가?
반대로 내가 교육자로서 AI 윤리에 대해 고민하고, 사람들이 AI를 더 책임 있게 활용하도록 기준을 만들고 싶다면, 나는 어떤 AI를 사용할 것인가?
같은 질문이라도 내 역할과 목적이 달라지면 선택은 전혀 달라진다.
그래서 AI와의 대화는 정해진 답을 빠르게 찾는 경험이라기보다, 사고의 경계를 관찰하는 경험에 가깝다.
어디까지 말해주는지
어디서 멈추는지
그리고 그 멈춤이 기술의 한계인지, 설계의 선택인지, 혹은 윤리적 판단인지
그것이 AI 시대를 살아가는 사람에게 필요한, 새로운 종류의 문해력이 아닐까.
그래서 나는 오늘도 AI와 대화를 나눈다.