brunch
매거진 TaPick

AI가 AI의 정치적 중립을 평가하는 시대

TaPick #024

by 팀어바웃

1. AI도 이제 ‘이건 말해도 되는 것인가’를 고민해야 하는 시대가 온 것일까요? 한 익명의 개발자가 만든 프로젝트 'SpeechMap'은 챗GPT, 그록, 라마 등 인기 AI 모델들이 정치, 사회적으로 민감한 주제에 얼마나 솔직하게 응답하는지를 비교하는 벤치마크입니다. 정치 비판, 시위, 시민권 같은 다소 민감한 주제로 구성된 질문에 AI 모델이 완전히 응답하는지, 회피하는지, 혹은 아예 거부하는지를 분석합니다. 현재 AI 기업들은 언어 모델이 '너무 각을 세우지 않도록' 다양한 관점을 제공하거나, 일부 질문에 대한 응답을 제한하는 방향으로 답변 수위를 조정 중인데요.


2. 실제 결과가 매우 재밌습니다. SpeechMap에 따르면 오픈AI의 모델은 시간이 갈수록 정치적 질문에 보수적으로 반응하는 경향을 보이고 있어요. 반면, 일론 머스크의 xAI에서 출시한 그록3은 테스트 프롬프트에 96.2% 비율로 응답하며 전 세계 평균(71.3%)을 훌쩍 웃도는 수치를 기록했습니다. 머스크가 '필터 없는 AI'를 강조해온 만큼 그 방향성과도 일치한다고 볼 수 있는데요. 그록도 초기 모델은 진보적인 쪽에 가까운 답변을 했지만, 훈련 데이터와 응답 구조를 재조정하며 그록3에서는 좀 더 중립적인 방향으로 튜닝됐어요.


3. AI 모델이 응답을 거부하는 이유는 다양합니다. 질문자가 요청한 프롬프트가 '파이트'가 벌어질 수 있는 주제거나, 혐오성 발언이거나, 여러 이유로 기업의 가이드라인에 저촉될 수 있기 때문이죠. 하지만, 사용자의 입장에서 회피하는 듯한 답변은 때때로 '검열'로 받아들여질 수 있습니다. AI가 특정 관점을 차단한다면, 그것이 기술적 중립성인지 기업의 편향성 때문인지 의심이 가게 마련이죠. SpeechMap은 이런 질문을 공개적으로 제기하며, AI의 대화 가능성과 그 한계를 스스로 점검하는 역할을 하고 있어요.


4. 이 평가가 '또 다른 AI'에 의해 이루어졌다는 것, 매우 흥미로워요. SpeechMap은 평가용 AI 모델을 사용해 다른 AI의 응답을 채점합니다. AI가 AI를 심판하는 구조인 셈이죠. 물론 이 과정에서도 또 다른이 개입될 수 있고, 절대적인 평가로 보기엔 한계가 존재합니다. 하지만 AI의 응답이 단지 기술적인 명령으로 이뤄진 결과가 아니라는 점, 사회적 판단과 기업 전략을 함께 섞어서 내 놨다는 점을 생각해 보면, 앞으로도 AI를 둘러싼 디지털 윤리 문제는 앞으로도 계속 논쟁거리가 될 가능성이 높아요.


5. AI는 항상 중립적일까요? 아니면 중립적으로 보이도록 설계된 것뿐일까요? 어떤 질문에 응답하고, 피하는지에 따라 우리는 AI의 가치관을 짐작하게 됩니다. 기술은 더 많은 것을 말할 수 있게 만들지만, 그 말의 방향성과 울림은 설계자의 철학에 따라 달라질 수밖에 없어요. SpeechMap의 등장은 우리가 AI에게 어떤 목소리를 허용하고, 어떤 침묵을 강요하는지 다시 돌아보게 만듭니다.


https://techcrunch.com/2025/04/16/theres-now-a-benchmark-for-how-free-an-ai-chatbot-is-to-talk-about-controversial-topics




하루 하나의 뉴스, 하루 하나의 명화로 당신의 하루를 더 풍요롭게❤️

르네 마그리트, 꿈의 열쇠(La Clef des songes), 1935.

1744851921836?e=1752105600&v=beta&t=_1-Fz--kScHPnYpQYV8cVv0CyqTtrHqvjNCUeGg0xzk


잘 읽으셨다면 클립 & 구독, 팀어바웃의 링크드인 페이지를 방문해주세요!

팀어바웃 링크드인

스타트업을 위한 풀코스 PR 파트너, 팀어바웃 홈페이지

keyword
매거진의 이전글우리가 돌고래의 말을 알아들을 수 있다면