brunch

25년 7월 3일 흠터레스팅 테크 뉴스

X, 팩트체크 시스템에 AI 적용으로 신뢰성 논란 확산 외 3건

by florent
Frame 635.png


[오늘의 인용글 - 성공은 단발적인 결정으로 이뤄지지 않는다.]


성공은 계획에 의해 결정되는 것이 아니라, 불확실성과 예기치 못한 상황에 대응할 수 있는 사람과 프로세스에 의해 결정됩니다. 단순히 6개월짜리 계획을 승인하고 돈을 투입한 뒤 그 기간 동안 얻게 되는 모든 정보를 무시한 채 무작정 실행에 옮기는 것이 아니라, 문제를 해결할 수 있는 자율성을 부여받은 팀이 매일 고객과 기술로부터 배워가며 유연하게 적응할 수 있는 역량을 갖추도록 지원해야 합니다.

- 마티 케이건, 트랜스폼드

Very often success is determined not by our plans but by the people and processes we have put in place that enable us to respond to uncertainty and surprise. Rather than simply approving and funding a six-month plan and then blindly proceeding to execute on that plan despite everything that is learned during that time, we instead fund an empowered product team to solve a problem and equip them with the skills to be able to adapt and learn from the customers and the technology every day.

- Marty Cagan, Transformed


(1) 클라우드플레어, 크롤링에 과금을 부과하는 수익 모델 출시

- Cloudflare, 전 세계 웹사이트의 약 20%를 지원하는 클라우드 인프라 기업이 ‘Pay per Crawl’이라는 AI 크롤링 유료화 마켓플레이스를 2025년 7월 1일, 비공개 베타로 출시

- 목적은 웹사이트 운영자들이 AI 봇에게 콘텐츠 접근을 허용하고 그에 대한 비용을 청구할 수 있도록 해, AI 시대에 맞는 새로운 수익 모델을 제공하는 것

- 운영자 선택권 확대: 각 AI 크롤러에 대해 크롤 당 소액 과금, 무료 허용, 전면 차단 등의 옵션을 개별 설정 가능

- 크롤링 목적 표시: AI 크롤러가 어떤 목적으로 사이트를 방문하는지(예: AI 학습, AI 검색 응답용 등) 확인 가능

- 기본 설정 변경: 이제 Cloudflare에 새로 등록되는 웹사이트는 AI 크롤러 차단이 기본값이며, 특정 봇만 수동 허용

- Conde Nast, TIME, The Atlantic 등 주요 언론사들이 기본 AI 차단 설정에 동참 -> 기존 구글 검색 트래픽 기반 수익 모델이 흔들리고 있는 가운데, AI 챗봇으로 인한 트래픽 감소에 대한 대응 전략으로 활용될 가능성

- 이 수익 모델의 배경: Cloudflare의 2025년 6월 데이터에 따르면 Google의 경우 14번 크롤 후 1회 트래픽 유입, OpenAI 1,700번 크롤 후 1회 유입, Anthropic 73,000번 크롤 후 1회 유입 → 기존보다 현저히 낮은 트래픽 환산율, AI 시대의 콘텐츠 무단 사용 문제 부각

- Cloudflare는 미래의 AI 사용자가 “정보 수집 예산을 갖는 AI 에이전트”를 상정 -> 예: AI 비서가 법률 브리핑, 암 연구 요약, 음식점 추천 등 콘텐츠에 비용을 지불하고 접근, 이를 위해 네트워크 단에서 작동하는 ‘에이전트 기반 페이월’ 개념을 제안

- 현재는 법정화폐 기반 결제만 지원되며, 암호화폐 미도입 -> Cloudflare CEO는 추후 자체 스테이블코인 발행 또는 외부 스테이블코인 도입 가능성 언급

- AI 기업들이 지금은 무료로 콘텐츠 수집하고 있는 상황이라, 유료 마켓에 적극 참여할지는 불확실 -> 소수 대형 언론사 외에, 중소 콘텐츠 생산자들에게 의미 있는 수익 모델로 정착될 수 있을지도 과제

- https://techcrunch.com/2025/07/01/cloudflare-launches-a-marketplace-that-lets-websites-charge-ai-bots-for-scraping/



(2) 미국 상원의원, AI 규제 금지 조항 삭제 결정

- 미 상원, 도널드 트럼프 행정부가 제안한 예산 법안 “Big Beautiful Bill에서 주(州) 정부의 AI 규제를 10년간 금지하는 조항을 99-1로 삭제 -> 해당 조항은 공화당 상원의원 테드 크루즈(Ted Cruz)가 제안했으며, AI 모라토리엄(AI Moratorium)이라 불림

- 모라토리엄 제안 배경: 주별 규제가 만들어낼 수 있는 규제의 파편화(fragmentation)가 AI 혁신을 저해할 수 있다는 이유로 모라토리엄을 지지

- 초당적 반대 형성: 대부분의 민주당 의원과 일부 공화당 의원들이 소비자 보호 약화, 대형 AI 기업에 대한 감시 부재, 연방 광대역 자금 지원과 연계된 점 등을 강하게 비판

- AI 규제 권한을 주 정부에 되돌림: 개별 주가 자체적으로 AI에 대한 정책 및 규제를 수립할 수 있는 법적 기반 확보 -> AI 관련 정책 다원화 가능성: 주마다 다른 규제가 생길 가능성은 있지만, 소비자 보호와 지역 정책 자율성 확보 측면에서 진전으로 평가

- 연방 차원의 일관된 AI 규제안 필요성은 여전: 향후 AI 산업을 둘러싼 통합적이고 명확한 연방 정책 마련에 대한 압력 증가 가능

- https://techcrunch.com/2025/07/01/us-senate-removes-controversial-ai-moratorium-from-budget-bill/


(3) 마이크로소프트, 전체 인력의 4%인 9,100명 감원 공식 발표

- 2025년 7월 2일, Microsoft가 전체 인력의 약 4%에 해당하는 9,100명을 감원한다고 공식 발표

- 이번 감원은 2024년부터 이어진 연쇄 구조조정의 일환이며, 올해만 해도 세 번째 주요 감원

- 타격이 큰 부문: Microsoft Gaming (Xbox 포함) -> Xbox 부문 포함한 Microsoft Gaming 조직이 가장 큰 타격

- Xbox 수장 필 스펜서(Phil Spencer)는 “전략적 성장 영역에 집중하기 위해 일부 사업 축소 및 관리 구조 단순화”를 이유로 언급

- 2024년 1월: Activision Blizzard 및 Xbox 부문에서 1,900명 감원

- 2024년 5월: 복수 게임 스튜디오 폐쇄 및 인력 축소

- 2024년 6월: HoloLens, Azure 팀 포함 1,000명 감원

- 2024년 9월: Xbox 조직 내 650명 추가 감원

- 2025년 5월: 6,000명 감원 발표

- 2025년 6월 초: 305명 추가 감원

- 이번(7월): 9,100명 추가 감원

- 필 스펜서의 내부 메시지 요지: 전략적 성장 기회에 집중하고, 관리 구조 간소화로 민첩성과 실행력을 높이기 위한 결정 -> 현재 Xbox 플랫폼과 게임 로드맵은 견고하나, 미래 지속 가능성을 위한 ‘선택과 집중’ 필요

- 감원 대상자에 대해서는: 현지 법 기준의 퇴직 보상금, 의료보험, 재취업 지원 제공, Microsoft Gaming 내 재지원 시 우선 검토 예정

- Microsoft는 게임 부문 인수(M&A) 이후에도 효율 중심의 인력 구조 재편을 지속 -> Xbox 부문은 플랫폼 확장과 콘텐츠 확보를 병행하며도 수익성 압박에 직면한 것으로 해석 가능

- 향후 게임 사업의 1st-party 중심 전략, 클라우드 게이밍, 구독 기반 모델에 더욱 집중할 가능성

- https://www.theverge.com/news/693535/microsoft-layoffs-july-2025-xbox


(4) X(구 트위터), 팩트체크 시스템에 AI 적용으로 신뢰성 논란 확산

- Elon Musk의 X(구 트위터)는 자사의 팩트체크 시스템인 ‘커뮤니티 노트’를 AI가 작성하도록 시도 중

- X는 이를 “업그레이드”라고 표현하며, AI와 인간의 협업을 통한 공공 지식 생산의 청사진으로 제시 -> 그러나 X는 자체 연구 보고서에서 이 계획의 여러 리스크를 솔직히 인정

- AI 기반 커뮤니티 노트의 이상적 모델: AI가 빠르게 대량의 노트를 생성하여 잘못된 게시물에 대한 대응력을 높임, 인간 리뷰어는 AI가 처리하기 어려운 주제(사회적 맥락, 전문성 요구 등)에 집중 -> 피드백 루프를 통해 AI는 시간이 지날수록 더 나은 노트 작성 능력을 습득

- AI 노트의 정확도 문제: X는 “AI가 작성한 노트가 인간 작성 노트만큼 정확할지 확신할 수 없다”고 명시 -> AI는 설득력 있는 글쓰기에 능숙하나, 내용은 틀릴 수 있음, 사람 리뷰어가 그럴듯하지만 부정확한 정보를 오히려 “도움됨”으로 평가할 수 있어, 잘못된 정보가 승인될 위험 증가

- AI의 '환각(hallucination)' 문제: 최신 LLM(대규모 언어모델)은 진위 여부와 관계없이 근거를 조작해서 만들어내는 능력이 있음 -> 허위 정보의 신뢰성을 더욱 높이게 되는 역효과 우려

- AI 남용 가능성: 누구나 임의의 기술로 AI 노트 작성 에이전트 생성 가능 → 편향되거나 결함 있는 AI 노트 확산 위험, 전체 시스템의 다양성과 신뢰성 훼손 가능성

- 인간 리뷰어 피로도 및 이탈: AI 노트가 폭증할 경우, 인간 리뷰어의 부담이 증가, 결국 인간 리뷰어 및 작성자들의 탈퇴 → 다양한 관점 기반 커뮤니티 노트 생태계 붕괴 가능

- Damian Collins (전 영국 기술부 장관): “600만 사용자 기반에서 AI를 통한 정보 조작 가능성 우려”, “거짓 정보와 음모론이 확대될 수 있다”고 경고

- Samuel Stockwell (앨런 튜링 연구소): “AI는 맥락 이해에는 약하지만 자신감 있게 거짓말하는 데 능함”, 안전장치 부재 시 매우 위험할 수 있음

- Andy Dudfield (Full Fact): “AI 초안 검토 부담이 커지면서, 결국 AI가 작성-검토-출판까지 모두 담당하는 시나리오 가능”

- https://arstechnica.com/tech-policy/2025/07/everything-that-could-go-wrong-with-xs-new-ai-written-community-notes/


keyword
작가의 이전글25년 6월 30일 흠터레스팅 테크 뉴스