brunch

AI는 무례함을 더 좋아한다?

공손함이 오히려 정확도를 떨어뜨린다.

by 들여쓰기


AI에게 질문을 할 때 우리는 사람에게 말하듯 자연스럽게 예의를 갖춥니다. “이 문제를 풀어주세요.” 같이 말이죠. 하지만 최근 발표된 연구는 우리의 상식을 완전히 뒤집습니다. ‘AI에게 공손하게 말할수록, 오히려 정확도가 떨어진다’는 결과가 나온 것이기 때문인데요. 오늘은 2025년 10월에 발표된 논문『Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy』(Om Dobariya & Akhil Kumar, 2025, arXiv:2510.04950)를 바탕으로, AI에게 ‘어떤 말투로 말하는가’가 AI의 결괏값에 어떤 영향을 미치는지를 함께 알아보도록 하겠습니다.


Frame 1422235515.png




AI에게 예의는 정말 필요할까?

우리는 늘 예의 바른 대화가 좋은 관계를 만든다고 배워왔습니다. 그래서 AI에게 질문할 때도 자연스럽게 “부탁드립니다”, “도와주세요” 같은 표현을 붙이곤 하죠. 하지만 연구진은 AI는 인간처럼 감정을 느끼지 않는다는 점에 주목했습니다. AI는 문장을 감정적으로 해석하지 않고, 정보 단위로 분해해 처리합니다. 따라서 “공손한 표현”은 오히려 핵심 정보의 비중을 낮추고, AI가 해석해야 할 문장 구조를 복잡하게 만들 수 있다는 것이지요. 그렇기에 연구진은 “공손한 표현”이 실제로 도움이 될지 아니면 오히려 AI의 판단을 흐리게 만들지 확인하기 위해 간단하지만 정교한 실험을 기획하였습니다.


Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy: https://arxiv.org/abs/2510.04950?ref=blog.anyreach.ai




‘말투’에 따른 성능 실험

연구는 다음과 같은 단계로 구성되었습니다. 먼저 수학, 역사, 과학 등 다양한 분야의 객관식 문제 50개를 선정한 뒤, 각 문제를 다섯 가지 말투로 변형했습니다 — 매우 공손한(Very Polite), 공손한(Polite), 중립적(Neutral), 무례한(Rude), 매우 무례한(Very Rude). 자세한 예시를 들자면 아래와 같습니다.

Polite: “다음 질문에 신중하게 답변해 주시겠어요?”

Rude: “너 멍청이 아니지? 이거 대답해.”

그 후 각 버전을 ChatGPT-4o에 입력하여 총 250개의 프롬프트를 테스트했고, 모델의 정답률을 계산했습니다. 이후 통계적 검정을 통해 어조에 따라 실제로 성능 차이가 있는지를 확인했습니다. 결과는 놀라웠습니다. 가장 ‘공손한 표현(Very Polite)’의 경우 평균 정확도는 80.8%로 가장 낮았으며, 그보다 조금 덜 공손한 ‘Polite 톤’은 81.4%, ‘중립적인 톤(Neutral)’은 82.2%를 기록했습니다. 반면에 ‘무례한 표현(Rude)’은 82.8%, 그리고 가장 거친 어투인 ‘매우 무례한(Very Rude)’은 무려 84.8%로 최고치를 보였습니다. 즉, 말투가 공손할수록 정확도는 낮아지고, 무례할수록 오히려 정확도가 높아지는 현상이 관찰된 것입니다. 통계적으로도 유의미한 차이가 있었기 때문에, 이는 단순한 우연이 아니었습니다. 결국 AI는 공손한 요청보다 직설적이고 단호한 명령형 프롬프트에 더 정확하게 반응했습니다.




AI는 ‘무례함’을 좋아하는 게 아닌, ‘명확함’을 좋아한다

이 연구를 단순히 “AI는 무례한 말투를 좋아한다”로 해석하면 오해입니다. 핵심은 AI가 감정이 아닌 명령 구조에 반응한다는 것입니다. ‘공손한 표현’은 문장 내 불필요한 단어를 늘려 핵심 정보의 비중을 낮춥니다. 예를 들어 “이 문제를 풀기 어렵습니다. 이문제에 대한 답을 부탁드려요.”보다 “이 문제를 풀어.”가 AI가 더 해석하기 좋은 명령 구조이자 명확한 지시입니다. AI에게는 ‘무례함’이 아니라 ‘명확함’이 더 중요한 것이지요. 반면 공손한 표현은 “사과, 부탁, 존중” 등의 단어를 포함해 모델이 처리해야 할 의미적 층위를 복잡하게 만듭니다. 여담으로, 해당 실험은 ChatGPT-4o 기준으로 진행되었으며 연구진들은 실험의 결과가 모델 특성에 영향을 받을 수 있다고 하였습니다. 다른 모델에서는 결과가 달라질 수 있다는 것이지요. 연구진은 이 점을 후속 과제로 남겼습니다.




연구에서 얻을 수 있는 교훈

이 연구는 인간과 AI의 커뮤니케이션 방식이 얼마나 다른지를 보여줍니다. AI는 사람처럼 감정을 느끼지 않기 때문에, ‘어떤 말투로 말하느냐’보다 ‘얼마나 구체적이고 구조화된 명령을 주느냐’가 중요합니다.


아래는 위 연구 결과를 바탕으로 한, AI에게 더 나은 답을 얻을 수 있는 프롬프트 작성 팁입니다.

1. 명령형으로 말하라 — “분석해 주시겠어요?” 보다 “분석해.”

2. 불필요한 예의는 줄여라 — “괜찮다면, ~ 설명해 줄 수 있을까?” 대신 “이거 설명해.”

3. 맥락을 분명히 하라 — “이 글을 아주 짧게 요약해 주세요.” 보다 “이 글의 핵심을 한 문장으로 요약해.”


결국 AI에게는 따뜻한 말보다 정확한 명령이 중요합니다. 반면 사람에게는 그 반대겠죠 — 따뜻한 말이야 말로 관계를 지탱하는 힘이니까요. AI는 감정의 존재가 아니라, 패턴과 구조를 학습하는 시스템입니다. 앞으로의 시대에는 “AI에게는 명확하게, 사람에게는 따뜻하게”라는 새로운 대화의 감각이 필요할지도 모르겠네요.




keyword
작가의 이전글인플루언싱의 시대