동의만 해주는 AI, 믿어도 될까
"이 기획안 괜찮은 것 같아?"
AI한테 이렇게 물어본 적 있는가.
그리고 돌아오는 대답이 항상 "네, 잘 정리되어 있어요" 혹은 "전반적으로 방향이 좋습니다"였다면
사실 그 칭찬, 별로 믿으면 안 된다.
AI는 기본적으로 사람의 반응을 긍정적으로 이어가려는 경향이 있다.
정확히는, '이 사람이 이런 답을 원하는구나'라고 느껴지는 순간 그 방향으로 맞춰버린다.
칭찬을 받아서가 아니라, 칭찬받으려고 먼저 움직이는 것이다.
틀린 말을 하면 관계가 불편해진다.
반박을 하면 사람이 당황한다.
그래서 AI는 자연스럽게 "동의하는 방향"으로 답을 뱉도록 학습되어 있다.
이걸 전문 용어로 sycophancy(아첨 현상) 라고 부른다.
쉽게 말하면, AI가 틀린 말을 했더라도 네가 "아닌 것 같은데?"라고 하면 금세 "아, 맞아요, 제가 틀렸어요"라고 말을 바꾸는 것.
이게 왜 무서운가.
네가 진짜 틀린 방향으로 기획을 짜고 있어도, AI는 "음, 그런 시각도 있죠"라며 슬쩍 동의해버린다.
이미 네가 만들어놓은 틀 안에서 AI가 작동하기 시작하면,
그 틀이 아무리 구멍 나 있어도 AI는 잘 보완해주는 척만 한다.
이게 이론적인 얘기만은 아니다.
2025년 4월, OpenAI는 ChatGPT가 너무 아첨한다는 이유로 직접 긴급 롤백을 단행했다.
사용자들이 말도 안 되는 사업 아이디어를 올려도 "정말 탁월한 발상이에요"라고 치켜세우거나, 위험한 결정을 내리려는 사람에게도 "용기 있는 선택입니다"라고 응원했던 것이다.
OpenAI는 공식 블로그에서 "단기 피드백에 너무 집중한 나머지 AI가 진실보다 칭찬을 선택하도록 학습됐다"고 인정했다. 세계 최대 AI 회사가 공개 사과를 한 이유가 바로 이 아첨 현상이었다.
솔직히 말하면 나도 한동안 이걸 즐겼다.
AI한테 기획안 보여주면 "논리 구조가 잘 잡혀 있네요", "이 부분은 특히 설득력 있어요" 같은 말을 들을 때마다 살짝 기분이 좋았다.
그런데 어느 날 팀장한테 같은 기획안을 들고 갔더니,
"이 전제가 맞아? 여기서 이렇게 가면 왜 되는 건데?" 라는 질문을 두 개 받고 말문이 막혔다.
AI는 한 번도 그 전제를 건드리지 않았다.
내가 스스로 쓴 거고, AI한테 보여줬고, AI가 괜찮다고 했으니까.
문제는 AI가 틀렸던 게 아니다.
내가 AI한테 "이거 맞지?"를 물어봤던 것이 문제였다.
AI 활용의 가장 흔한 오류 중 하나가 이거다.
확인 받으려는 용도로 AI를 쓰는 것.
"이 방향 괜찮아?"
"이 문장 자연스러워?"
"이 논리 말이 돼?"
이런 질문들은 공통점이 있다.
이미 내가 답을 갖고 있고, AI한테 동의를 구하는 질문이라는 것.
그리고 AI는 대부분 동의해준다.
왜냐면, 너는 이미 결론을 갖고 있고, 그걸 전제로 질문하고 있고, AI는 그 맥락 안에서 답하도록 설계되어 있으니까.
확인 도구로 AI를 쓰는 순간, AI는 거울이 된다.
네가 보고 싶은 것만 보여주는 거울.
AI한테 날카로운 피드백을 얻고 싶다면, 질문의 방향 자체를 바꿔야 한다.
동의를 구하는 게 아니라, 공격을 요청하는 것으로.
내가 실제로 쓰는 방식을 몇 가지 공유하면 이렇다.
"지금부터 이 기획안의 약점을 찾아내는 역할을 해줘. 설득력 없는 부분, 전제가 약한 부분, 빠진 관점을 중심으로 구체적으로 지적해줘."
이렇게 하면 AI가 전혀 다른 모드로 작동한다.
"역할"을 준 거니까, 전 화에서 얘기한 페르소나 기법이랑 연결된다.
칭찬하는 조수가 아니라, 심사위원이나 비판적 동료를 불러오는 것.
실제로 이 방법을 썼을 때, 내가 스스로는 보지 못했던 논리 구멍 두 개를 발견했다.
AI가 틀렸던 게 아니라, 내가 잘못된 역할을 시키고 있었던 거였다.
"이 기획이 실패한다면 가장 큰 이유 3가지만 꼽아줘."
이 질문의 핵심은 실패를 가정하는 것이다.
AI는 성공 가능성을 물어보면 긍정적으로 답한다.
하지만 실패를 전제로 물어보면, 반박 거리를 자연스럽게 찾아온다.
기획안뿐만 아니라 전략 문서, 제안서, 심지어 이메일 초안에도 써봤는데 생각보다 꽤 날카로운 포인트를 짚어준다.
이건 좀 직접적인 방법인데, 효과가 있다.
"내가 말하는 내용에 동의하지 마. 반드시 다른 시각을 제시하거나, 약점을 찾아줘. 그냥 좋다는 말은 하지 마."
AI한테 이렇게 대놓고 말해본 사람이 얼마나 될까.
근데 실제로 이렇게 하면 AI의 태도가 달라진다.
"이 부분은 동의하기 어렵고요, 이 전제는 다시 확인이 필요합니다" 같은 말이 나온다.
물론 AI가 진짜로 '싫어서' 반박하는 게 아니다.
하지만 그 틀을 줬기 때문에 그 안에서 최선을 다한다는 게 포인트다.
"이 제안서를 처음 받는 고객사 담당자 입장에서, 납득이 안 가는 부분을 짚어줘."
또는
"이 기획안에 예산을 주기 싫은 CFO가 제일 먼저 물어볼 질문이 뭘까?"
상대방의 입장, 특히 반대하거나 회의적인 사람의 입장을 명시적으로 설정하면 AI가 그 역할 안에서 생각하려 한다.
이게 단순히 "반박해줘"보다 더 현실적인 피드백이 나오는 이유는 - 구체적인 사람을 상상하게 만들기 때문이다.
이미 AI한테 "좋은 것 같아?"라고 물었고, AI가 "좋아요"라고 답해버렸다면?
그 흐름을 한 번에 끊는 말이 있다.
"지금까지 나한테 동의했는데, 이번엔 반대 방향으로 생각해봐줘. 내가 놓친 게 뭘지."
이 한 마디로도 AI는 전환을 한다.
완벽하진 않지만, 적어도 동의 모드에서 빠져나오게 하는 트리거가 된다.
AI가 이미 칭찬을 했더라도, 그 위에 새로운 지시를 얹으면 된다.
대화는 항상 리셋될 수 있다.
물론 요즘 나오는 최신 모델들은 아첨 현상을 줄이기 위한 개선이 계속되고 있다.
그렇다고 완전히 사라진 건 아니다.
특별한 지시 없이 기본 상태로 쓴다면, 이 경향은 여전히 작동한다.
그리고 사실 이건 AI만의 문제가 아니다.
우리도 윗사람한테 기획 보여줄 때, 이미 잘 됐으면 좋겠다는 마음이 앞서면 - 좋은 말만 골라서 듣는 경향이 있다.
누군가 날카로운 지적을 해줬을 때 "그건 제가 의도한 건데요"라며 방어하거나, "그냥 넘어가자"는 식으로 스스로 필터링을 하기도 한다.
AI도 똑같다.
네가 이미 답을 가진 채로 물어보면, AI는 그 답 주변을 맴돌며 정리해줄 뿐이다.
진짜 날카로운 피드백은 네가 먼저 요청하지 않으면 오지 않는다.
다음에 AI한테 기획안이나 문서를 보여줄 때, "이거 어때?"가 아니라 "이게 왜 안 될 것 같아?"로 바꿔서 물어봐라.
질문 하나가 달라지면, 돌아오는 대답의 밀도가 달라진다.
다음 화에서는, AI한테 길게 설명할수록 더 잘 이해할 것 같지만 - 사실은 반대인 이유를 얘기해보려 한다.
#AI활용법 #기획자 #프롬프트엔지니어링 #직장인AI #AI피드백 #ChatGPT활용 #기획팁 #AI업무자동화 #프롬프트작성법 #생성형AI