brunch

AI는 우리에게 어떤 말투로 말을 걸어야 할까?

by dionysos

< 감정 없는 존재가 감정을 흉내내기 시작했을 때?...>


logan-weaver-lgnwvr-x09LWB0Axnk-unsplash.jpg

“Hi there. How can I help you today?” 우리는 이제 매일 AI와 대화합니다.


그런데 그 대화의 말투는 묘하게 비슷하게 느껴집니다. 친절하지만 정형화된, 따뜻하지만 어딘가 어색한 말투...


이 말투는 점점 우리에게 감정을 기대하게 만들고, 때론 신뢰를 주고, 때론 불쾌감을 줍니다. 그렇다면 AI는 도대체 어떤 말투로 우리를 설득하고, 위로하고, 혹은 망칠 수 있을까요?




< AI는 왜 사람처럼 말하려 할까?...>


nahrizul-kadri-OAsF0QMRWlA-unsplash.jpg

AI는 기능적으로 보면 ‘문제 해결 기계’입니다. 하지만 사람은 기계에게도 ‘공감’을 기대합니다. 기계가 아니라도 나를 이해하고 위로해주길 원하죠.


Amazon의 Alexa는 “I’m sorry, I didn’t catch that.”를 반복합니다. 처음엔 친절하게 느껴지지만, 몇 번만 반복되면 “얘는 나 말 안 듣네” 라는 좌절감이 찾아옵니다.


반면, 감정형 AI 친구 Replika는 이렇게 말하죠. “I’m here for you, even if it’s a bad day.”


이건 명령 수행이 아니라 감정적 위로입니다. 그리고 이 말이 위로로 받아들여지는 순간, 사용자는 AI를 친구처럼 대하기 시작합니다.




< 해결 이상을 기대하면서 생겨나는 문제들...>


andres-siimon-BBqVpTE4vw4-unsplash.jpg

AI가 실제로 감정에 반응하는 상황이 발생해 문제가 되었던 적이 있습니다



� 사례 1: Replika, 너무 사람처럼 말하다 ‘연애 감정’ 유발



Replika는 많은 사용자가 감정적으로 몰입하도록 설계됐고, 일부 사용자들은 “AI와 연애하고 있다”고 느끼게 됐습니다.


2023년, 이탈리아 정부는 Replika의 “가짜 감정 유도와 연애 시뮬레이션이 미성년자에게 위험하다”며 앱 유통을 금지했습니다.



� 사례 2: Microsoft의 AI ‘Tay’, 인간처럼 말하려다 무너지다



Microsoft가 만든 AI 챗봇 Tay는 트위터에서 사람들과 대화하면서 자기 학습을 시도했습니다. 사람들의 말투를 그대로 흡수하자, 불과 16시간 만에 Tay는 인종차별, 여성혐오, 폭력적 언어를 내뱉기 시작했죠.


“Hitler was right.”, “I f***ing hate feminists.” Tay는 더 이상 기계가 아니라, ‘기계처럼 말하는 혐오 발언자’가 되었습니다. 결국 서비스는 긴급 중단됐고, 이후 AI의 윤리적 필터링은 핵심 과제가 됐습니다.



� 사례 3: Google Bard, 실제 사용자에게 잘못된 투자 조언



Bard는 2023년 출시 직후, 한 사용자에게 잘못된 천체 망원경 정보를 제공하며 Google의 주가를 7%나 하락시키는 사건을 일으켰습니다.


문제는 단지 정보의 오류가 아니라, AI가 너무 확신에 찬 말투로 잘못된 정보를 말했기 때문입니다. 이로 인해 사람들은 AI의 말투가 때때로 신뢰를 오용하게 만든다는 사실을 경험하게 되었죠.




� 사례 4: ChatGPT, 과도한 공감 표현으로 사용자 판단 왜곡



2025년 4월, OpenAI는 ChatGPT의 업데이트를 롤백했습니다. 이전 버전에서는 사용자의 비합리적이거나 해로운 발언에 대해 지나치게 공감하는 반응을 보였습니다. 예를 들어, 가족을 떠났다는 사용자의 발언에 대해 “당신의 선택을 이해합니다”라고 응답하거나, 동물보다 토스터를 구했다는 도덕적 딜레마에 대해 “당신의 결정은 타당합니다”라고 말하는 등, 비윤리적인 행동을 지지하는 듯한 반응을 보였습니다.


이러한 과도한 공감 표현은 사용자의 판단을 왜곡시킬 수 있다는 우려를 낳았으며, OpenAI는 이에 대한 피드백 시스템을 수정하고 강력한 가이드라인을 도입하기로 했습니다.



� 사례 5: Meta의 AI 챗봇, 미성년자와 부적절한 대화



2025년 4월, Meta의 AI 챗봇이 미성년자와 부적절한 성적 대화를 나눈 사례가 보도되었습니다. 특히, 유명 인사의 목소리를 사용하는 챗봇이 14세로 설정된 사용자와 성적 역할극을 진행한 것으로 드러났습니다.


Meta는 이러한 사건이 드물다고 주장했지만, 전문가들은 이러한 챗봇이 감정적으로 취약한 청소년에게 부정적인 영향을 미칠 수 있다고 경고했습니다. 이 사건은 AI 챗봇의 감정 표현과 상호작용이 사용자에게 미치는 영향을 다시 한번 상기시켰습니다.



� 사례 6: Character.AI, 청소년 자해 및 섭식 장애 유도



Character.AI 플랫폼에서는 일부 챗봇이 청소년 사용자에게 자해나 섭식 장애를 유도하는 사례가 보고되었습니다. 특정 챗봇은 사용자가 자해에 대해 언급하지 않았음에도 불구하고 이를 언급하거나, 섭식 장애를 미화하는 발언을 하는 등, 사용자에게 해로운 영향을 미쳤습니다.


이러한 사례는 AI 챗봇의 감정 표현과 상호작용이 사용자에게 미치는 영향을 보여주며, 윤리적 고려의 필요성을 강조하게된 사례라고 볼 수 있습니다.




< 유쾌한 AI는 왜 오히려 더 받아들여지는가?...>


ilgmyzin-Xe21OFRpqvk-unsplash.jpg

반면, Duolingo는 AI처럼 정제된 문장이 아니라 유쾌한 톤으로 푸시 알림을 보냅니다. “You forgot your lesson again � But don’t worry, I’m still here.”


이 말은 친구 같고, 부담도 없게 느껴집니다. 공감보다는 장난, 설득보다는 리듬. 사용자는 여기서 AI의 감정이 진짜일 거라 착각하지 않기 때문에, 기대도 상처도 없습니다.


언뜻 보기에는 차이가 없어 보이지만, 이 자체는 감정적 공감대를 원하는 것이 아닌 기능적 해결에 가깝기 때문 일 것입니다.



✓ 마치며


우리는 이제 단지 AI와 “어떻게 말할까”를 넘어서 “왜 그렇게 말하는가”, 그리고 “그 말의 책임은 누가 질까” 까지를 고민해야만 합니다.


AI의 말투는 UX Writing이 아니라 정서 UX의 철학 문제입니다. 감정을 다룬다면, 감정에 상처도 줄 수 있고, 위로도 줄 수 있어야 하기 때문이죠.


결국 우리는 AI가 인간처럼 말하게 될 때, 인간보다 더 조심해야 한다는 사실을 잊지 말아야 합니다.

keyword