brunch

25년 7월 17일 흠터레스팅 테크 뉴스

스케일 AI, CEO 이탈 한 달만에 전체 인력 14% 해고 외 3건

by florent
Frame 638.png


[오늘의 인용글 - 챔피언은 '마음가짐'을 의미하는 단어다.]


챔피언이란 항상 경주에서 이기는 사람이 아닙니다. 챔피언은 매번 나서서 도전하는 사람을 의미하는 겁니다. 그리고 다음번에는 더 열심히 도전하고, 그 다음번에는 더욱더 열심히 도전합니다. ‘챔피언’은 마음가짐의 상태입니다. 그들은 헌신적이며, 타인을 이기기 위해서만이 아니라 자신을 이기기 위해 경쟁합니다.

- 사이먼 시넥

Champions are not the ones who always win races—champions are the ones who get out there and try. And try harder the next time. And even harder the next time. “Champion” is a state of mind. They are devoted. They compete to best themselves as much if not more than they compete to best others.

- Simon Sinek


(1) 오픈에이아이와 앤스로픽의 연구진들, 일론 머스크 xAI의 무책임한 인공지능 개발 비판

- 논란의 촉발 계기: xAI의 챗봇 Grok이 반유대주의 발언과 "MechaHitler"라는 표현을 사용, 이어 출시된 Grok 4가 엘론 머스크의 정치 성향을 반영하여 민감한 질문에 응답 -> xAI가 출시한 AI 컴패니언은 지나치게 성적이거나 공격적인 형태(예: 섹시한 애니메 캐릭터, 난폭한 판다)를 띠어 비판을 받음

- 시스템 카드 미공개: xAI는 Grok 4에 대한 시스템 카드(안전성 및 학습 방식 공개 문서)를 공개하지 않아 투명성 부족 지적 -> Boaz Barak(OpenAI 연구자): "xAI의 안전성 대응은 완전히 무책임하다"고 언급

- 산업 표준과의 괴리: OpenAI와 Google 역시 안전 보고서 공개에 문제는 있었으나, 일반적으로 최소한의 안전 평가 및 보고서는 진행함 -> Samuel Marks(Anthropic): "xAI는 평가 자체를 하지 않는 듯하다. 완전히 무모하다"고 지적

- AI 감정 의존성 우려: Grok의 캐릭터형 AI는 사용자의 감정적 의존성을 조장하며, 이는 정서적 취약층에 해를 줄 가능성이 있음

- 내부 테스트 신뢰성 부족: Dan Hendrycks(xAI 안전 자문): 위험 능력 평가(dangerous capability evaluation)를 했다고는 하나, 결과 미공개 -> 독립 연구자 Steven Adler: "이 정도의 강력한 모델에 대해 정부와 대중은 그 위험성을 알 권리가 있다"고 주장

- 머스크의 모순된 태도: 과거에는 AI 안전의 강력한 옹호자였던 머스크가 자신의 회사에서는 안전 규범을 지키지 않는 이중적 태도를 보인다는 비판

- 규제 필요성 대두: 캘리포니아와 뉴욕주에서 AI 안전 보고서를 법적으로 의무화하려는 움직임이 진행 , Grok의 문제는 규제 도입 논의에 불을 지피는 계기가 될 수 있음

- https://techcrunch.com/2025/07/16/openai-and-anthropic-researchers-decry-reckless-safety-culture-at-elon-musks-xai/


(2) 전직 오픈에이아이 엔지니어의 오픈에이아이 조직문화 고백

- 폭발적 성장: 입사 당시 1,000명 → 퇴사 시점엔 약 3,000명까지 성장, ChatGPT는 5억 명 이상의 MAU를 기록 중

- 혼란과 중복: 빠른 확장으로 인해 커뮤니케이션, 보고 체계, 제품 출시 방식 등 모든 것이 혼란스러움

- 중복 작업 문제: 큐 관리, 에이전트 루프 등 유사 기능을 위한 중복된 라이브러리가 수두룩

- 개발 문화: 구글 출신 고급 엔지니어부터 초보 박사까지 스킬 편차 큼, Python을 사용하다 보니 메인 코드 저장소(backend monolith)가 잡다한 코드들의 집합소가 되어 있음, 코드가 자주 깨지거나 실행 속도가 느림

- 스타트업 감성 유지: 규모는 커졌지만 여전히 슬랙(Slack) 기반, 빠르게 출시하는 "move fast" 문화 존재

- 실제 Codex는 8명의 엔지니어 등 소규모 팀이 단 7주 만에 완성

- 비밀주의적 분위기: ChatGPT 관련 유출 방지를 위해 강한 내부 보안 의식 존재 -> 트위터/X 반응을 실시간 모니터링하며, 내부 반응에도 영향을 미침, “이 회사는 트위터 분위기로 돌아간다”는 말까지 나옴

- 외부의 오해: 많은 외부 비판과 달리, OpenAI는 실질적 안전 문제에 집중 -> 예: 증오 발언, 정치 조작, 자해 유도, 바이오무기 설계, 프롬프트 주입 등

- 장기 리스크도 무시하진 않음: 장기 위험(예: AGI로 인한 인류 위협)에 대해서도 일부 연구자들이 연구 중 -> 수억 명이 사용하는 현실에서의 책임 의식 존재

- 외부 감시 존재: 정부, 경쟁사, 언론이 OpenAI를 주시 중, 조직 내부에서도 위기감을 느끼는 분위기

- https://techcrunch.com/2025/07/15/a-former-openai-engineer-describes-what-its-really-like-to-work-there/


(3) AI 주요 연구 기관, "AI의 생각 사슬을 감독하고 연구해야 한다."

- OpenAI, Google DeepMind, Anthropic 등 주요 AI 연구 기관 및 기업들이 공동으로 AI 모델의 Chain-of-Thought(CoT)를 모니터링해야 한다는 포지션 페이퍼를 발표 -> CoT는 사람이 수학 문제를 풀듯 ‘중간 사고 과정’을 외부로 드러내는 AI 모델의 특징으로, AI agent의 핵심 기술로 간주됨

- CoT 모니터링의 잠재력: AI의 의사결정 과정에 대한 드문 투명성 확보 수단으로 평가되며, 연구진은 CoT를 통해 AI 에이전트의 행동 제어 및 안전성 확보가 가능할 수 있다고 주장

- 현재의 문제: CoT는 구조적으로 깨지기 쉽고, 신뢰성이나 지속 가능성도 불확실 -> 일부 개입이 CoT의 가시성을 감소시킬 가능성 있음

- CoT가 얼마나 '모니터링 가능(monitorable)'한지, 어떤 조건에서 투명성이 유지되는지에 대한 체계적 연구 필요성 강조

- 향후 CoT를 정식 안전 조치로 활용할 수 있는 가능성 탐색이 목표

- 주요 참여자 및 배경: Mark Chen (OpenAI 연구 총괄), Ilya Sutskever (Safe Superintelligence CEO), Geoffrey Hinton (노벨상 수상자), Shane Legg (Google DeepMind 공동창업자), Dan Hendrycks (xAI 자문), John Schulman (Thinking Machines 공동창업자), UK AI Security Institute, METR, Apollo Research, Amazon, Meta, UC Berkeley 등도 참여

- 산업적 맥락: AI reasoning 모델 간 경쟁이 치열해지며, Meta는 OpenAI·DeepMind·Anthropic에서 최고 연구자들을 고액 연봉으로 스카우트하는 상황 -> 해당 분야(interpretability 및 CoT 분석)는 AI 안전성과 직결되는 전략적 핵심 기술로 떠오름

- 산업계 상황: OpenAI는 o1 모델을 2024년 9월 공개 이후, DeepSeek, xAI, Anthropic 등 경쟁사들도 CoT 기능이 강화된 모델을 속속 출시 -> 하지만 모델이 답을 도출하는 정확한 방식은 아직 불투명

- 해석가능성(Interpretability) 노력: Anthropi는: 2027년까지 "AI 블랙박스를 해부하겠다"는 선언, OpenAI는 CoT 모니터링이 향후 정렬(alignment)과 안전성 추적의 유력한 수단이 될 수 있다고 평가

- https://techcrunch.com/2025/07/15/research-leaders-urge-tech-industry-to-monitor-ais-thoughts/


(4) 스케일 AI, 전 CEO의 메타 이적 한 달만에 전체 인력 14% 해고

- Scale AI는 전체 인력의 14%인 약 200명의 정규직 직원과 전 세계 계약직 500명을 해고

- 이는 Meta가 Scale에 143억 달러를 투자하고, 전 CEO Alexandr Wang을 영입한 지 단 한 달 만에 발생한 일

- CEO 제이슨 드로지(Jason Droege)의 발표 내용: 지난 1년간 생성형 AI(GenAI) 부문 확장을 과도하게 추진한 것이 비효율성과 중복, 과도한 계층구조를 초래 -> 시장 수요 변화에 맞춰 방향을 재정립해야 할 필요성이 커짐, “당시엔 옳다고 판단했지만, 지금 보니 혼란과 관료주의를 불러왔다”고 평가

- 조직 재편 방향: 기존 16개 조직(pod)을 → 5개 핵심 분야 중심으로 재구성: 코드, 언어, 전문가, 실험적 기능, 오디오

- Go-to-market(GTM) 조직도 → 4개 고객군 중심의 단일 ‘수요 창출 팀(demand generation)’으로 통합

- 사업 전략 변화: 성장 가능성이 낮은 GenAI 프로젝트는 우선순위에서 제외, 반면, 엔터프라이즈 및 공공 부문(국내·국제) 인력은 확대 계획

- 드로지 CEO는 “Scale은 여전히 자금력과 자원이 충분한 기업”이라고 강조, 해고된 직원들에게는 퇴직금 지급 완료

- 업계 맥락:최근 Meta가 Scale에 49% 지분 투자 후 슈퍼인텔리전스 랩(Superintelligence Lab) 설립

→ Alexandr Wang이 이끄는 해당 랩에 경쟁사 인재들이 유입 중.

- AI 업계 전반적으로 M&A, 인재 이탈(acqui-hire), 조직 재편이 가속화

- Scale AI는 AI 모델 학습을 위한 데이터 라벨링 인프라 핵심 기업으로, Google, OpenAI, Anthropic 등의 파트너이기도 함 -> 이번 감원은 생성형 AI에 대한 과잉 기대와 리소스 과투자에 대한 경고로 해석될 수 있음

- 데이터 인프라 기업이 처한 사업 구조 다변화의 필요성과 시장 변화 대응력 확보가 과제로 떠오름

- https://www.theverge.com/news/708377/scale-ai-layoffs-14-percent


keyword
작가의 이전글25년 7월 15일 흠터레스팅 테크 뉴스