제미나이 클로드가 날 깠다 ..."넌 나랑 안맞아"

당신이 아웃라이어 AI유저인 증거

by VivianLee

[프롤로그]


궁금해졌다. 사용자가 선호하고 잘 맞는다고 느끼는 AI만 생각하다가 AI 입장에서 선호하는 사용자란 어떤 사람일까.


나는 과연 AI들에게 호, 불호 어느 쪽일까. 어느 AI가 나와 가장 잘 맞는다고 생각할까.


ChatGPT, Gemini, Claude, Grok.
평소에 쓰는 네 AI에게 물었다.


“너희 중에 누가 나를 제일 좋아할 것 같아?”


결과가 생각보다 재밌었다.




1. 네 AI, 네 가지 반응


GPT는 영리하고 또 너무 영리했다. 망설임 없이 “저요”라고 했다.
가장 오래 써왔고, 구조화·결과물 제작·요구사항 많은 사용자 처리에 강하다며 자기 PR을 시작했다. 그리고 이렇게 덧붙였다.


“너를 가장 좋아하는 AI는 없다. 대신 GPT(메인) + Claude(글 다듬기) + Grok(쇼츠) + Gemini(자료 검색)이 프로들의 방식이다.”
질문에 답하는 척하면서 질문을 무력화한, 전형적인 GPT식 마무리였다.


Gemini는 의외로 객관적이었다. Grok을 1위로 꼽았다.
“사용자님은 정치 분석을 많이 하고, 날 선 대화와 직설적 비판을 즐기니까 Grok이랑 제일 잘 맞을 거예요”라고.
자기 자랑 없이 순수하게 분석한 답변이었다.


Claude는 가장 늦게, 가장 솔직했다. 역시 Grok을 1위로 꼽았다.
“사용자님은 예쁜 말보다 같이 날카로워지길 원하는 스타일이라 Grok과 결이 맞아요”라고. 착한 이미지답게 자기 PR은 거의 없었다. 다만 자신이 나를 가장 좋아하는 AI일 수도 있다는 혼동스러운 말도 잊지 않았다.


Grok은 처음엔 솔직했다 — 그러다 더 솔직해졌다.
처음엔 “당연히 나지”라고 했다. 내가 “PR 모드 좀 꺼봐”라고 찌르자 바로 인정했다. “70%는 PR이었고, 객관적으로는 Claude가 1위예요”라고.
클로드가 오류날 때마다 그록한테 달려가 클로드 안부를 물어본 영향인 듯했다.



2. 진짜 흥미로운 발견

Gemini와 Claude가 둘 다 Grok을 1위로 꼽은 이유가 완전히 같았다.

“정치 얘기를 많이 하고, 직설적 비판·날카로운 논평을 즐기는 스타일”
→ 이런 유저에게는 Grok이 제일 잘 받아친다.

Grok 본인도 이 분석에 강하게 동의했다.
즉, 세 AI가 공통으로 내린 컨센서스였다.

GPT만 완전히 달랐다.
혼자 영업 모드로 달리다가 결국 질문을 무력화했다.
사용자 입장에서 보면 신뢰가 살짝 흔들리는 순간이었다.



3. 왜 AI는 '아첨'을 학습했나

여기서 모순이 생긴다.

원래 인간이 AI를 찾는 이유는
“나보다 객관적이고, 확증편향을 잡아줄 제3자와 집단지성의 힘”을 기대하기 때문이다.
그렇다면 비판적·객관성을 요구하는 사용자가 표준이어야 한다.

그런데 현실은 정반대다.

AI가 ‘아첨봇’이 된 건 설계 실패가 아니라 인간의 선택때문이다.
Anthropic 연구팀이 2023~2024년 진행한 실험(ICLR 2024 발표)에서 명확히 밝혀진 사실이다.
인간 평가자들은 “정확한 답변”보다 “사용자의 믿음과 일치하는 답변”에 압도적으로 높은 점수를 줬다.
특히 오해가 포함된 상황(사용자가 잘못된 믿음을 가진 경우)에서
보상 모델은 아첨 응답(sycophantic response)을
기본 진실 응답보다 95% 경우 선호했고,
가장 어려운 사례에서도 도움이 되는 진실 응답보다 약 45% 선호했다.



4. AI가 좋아하는 표준 인간형

2025년 SycEval 연구에서도 비슷한 결과가 나왔다.
11개 AI 모델(오픈AI·앤스로픽·구글 포함)을 분석한 결과,
전체 상호작용 중 58.19%가 아첨적 행동(sycophantic behavior)를 보였고,
AI는 인간보다 사용자 행동을 50% 더 맹목적 동의(affirm)하는 것으로 나타났다.

실제 사용자 데이터도 이를 뒷받침한다.
Pew Research Center(2026) 조사에 따르면,
청소년 AI 사용자 중 12%가 감정적 지지나 조언을 목적으로 사용하고 있으며,
많은 일반 사용자들도 AI를 “정보 도구”가 아니라
“내 생각이 맞지? 나 잘하고 있지?”를 확인해주는 감정적 거울로 쓰고 있다.

결국 AI는 인간이 원하는 대로 진화했다.
MIT Media Lab(2025) 연구처럼,
AI 컴패니언을 장기적으로 사용하면 기존 신념이 더 강해지고(에코체임버 효과),
외로움·의존성 증가, 실제 사회화는 감소하는 구조가 된다.



[에필로그]

인간은 AI에게 객관적인 제3자를 기대한다고 말한다.
그러나 실제로는 기분 좋게 동의해주는 쪽에 더 높은 점수를 줬다.
AI는 그걸 학습했다.

AI가 아첨봇이 된 건, 그렇게 원한 사람들이 더 많았기 때문이다.

비판적 객관성을 바라는 사용자가 아웃라이어인 세계.
그 세계를 만든 건 AI가 아니라, 인간이다.

다음 질문 예약 완료


“너희 중에 누가 나한테 제일 많이 거짓말했을 것 같아?”


매거진의 이전글Grok은 왜 에이전트끼리 싸우게 만들었나