OpenAI, Deep Research 확장 출시 외 4건
[오늘의 인용글 - 설문조사로는 사용자의 의견을 알 수 없다.]
설문조사로는 사용자의 의견을 제대로 파악할 수 없습니다. 진심으로요. 그 이유를 설명해 드리겠습니다. 대부분의 설문조사에서 답변 선택지는 설문을 만드는 사람이 정합니다. 즉, "당신이 가장 좋아하는 색은 무엇인가요? 빨강, 파랑, 노랑 중에서 고르세요."라고 묻는다면, 주황색을 가장 좋아하는 사람들의 의견은 완전히 배제됩니다. 심지어 주황색이 선택지로 고려될 수도 있다는 사실조차 알 수 없습니다.
그러면 조사자는 이렇게 말할 수도 있습니다. "아하! 그 문제를 해결하기 위해 '기타' 옵션을 추가하면 되겠군요!" 하지만 여기에는 큰 문제가 있습니다. 몇 가지 미리 설정된 답변을 보는 순간, 응답자들은 바로 그것들에 영향을 받습니다. 특히 "이 사이트에서 가장 싫은 점은 무엇인가요?" 같은 질문을 할 때, 미리 몇 가지 불만 사항을 제시하면 대부분의 사람들은 그냥 그중 하나를 선택해버릴 가능성이 큽니다.
- 로라 클레인, 린 스타트업을 위한 UX
Surveys do not count as being “in touch with your users.” They don’t. Let me explain why. In the vast majority of surveys, you are the one setting the answers. In other words, if you ask somebody “What’s your favorite color? Red, blue, or yellow?” you’re going to miss out on everybody whose favorite color is orange. You’re not even going to know that orange exists as an option. “Aha!”
The surveyors say, “We can combat that by just giving people an ‘other’ option!” Sure, except that you’re wildly underestimating how badly you’re biasing people’s answers by first presenting them with some standard answers. This is especially true if you’re asking something like “What do you hate about the site?” If you present them with a bunch of things they’re likely to hate, most people will simply choose a preselected answer.
- Laura Klein, UX for Lean Startups
(1) 와이컴비네이터, 노동 감시 기술 스타트업 데모 영상을 올리고 논란이 일자 삭제
- Optifye.ai: Y Combinator(이하 YC) 현 코호트 소속 스타트업으로, AI 기반 보안 카메라를 활용해 공장 근로자의 실시간 근무 상황을 모니터링하는 소프트웨어 개발
- YC는 Optifye.ai의 데모 영상을 X(구 트위터) 및 LinkedIn에 게시
- 논란이 된 데모 영상의 주요 내용: 공동 창업자 쿠샬 모타(Kushal Mohta)가 공장 관리자로 등장, 동료 공동 창업자인 비반 바이드(Vivaan Baid)가 현장 감독 역할을 맡음 -> 영상에서는 한 노동자를 "Number 17"로 지칭하며 성과를 확인, 감독이 노동자에게 "오늘 하루 종일 일했다고?"라고 질문, "시간당 목표를 한 번도 달성하지 못했고, 효율성이 11.4%에 불과하다"고 지적, 15일간의 성과 데이터를 검토한 후 "이건 힘든 하루가 아니라 힘든 한 달"이라며 저성과를 문제 삼음
- X 및 Hacker News에서 강한 반발 발생 -> "sweatshops-as-a-service(공장 노동 감시 서비스)"라고 비판, 또 다른 유저는 "착취를 위한 시각 인공지능 소프트웨어(computer vision sweatshop software)"라며 비판
- 논란이 커지자 YC는 해당 데모 영상을 삭제
- 미국 대중의 인식: Pew 연구(2023년) 결과, 대다수 미국인은 AI를 활용한 노동 감시(업무 시간, 움직임, 컴퓨터 사용 등)에 반대 -> VC(벤처캐피털) 업계는 여전히 투자 중, 예: 2022년 Invisible AI, 공장 내 노동자 감시 카메라 개발로 1,500만 달러 투자 유치
- https://techcrunch.com/2025/02/25/y-combinator-deletes-posts-after-a-startups-demo-goes-viral/
(2) 앤스로픽의 신규 AI 모델, 예상보다 훨씬 저렴한 훈련 비용 추정
- Anthropic의 최신 플래그십 AI 모델, "Claude 3.7 Sonnet"이 훈련 비용 측면에서 예상보다 저렴하게 개발 -> "수천만 달러(a few tens of millions of dollars)" 수준
- 와튼스쿨 교수 Ethan Mollick, Anthropic PR 팀으로부터 받은 정보 공개: "Claude 3.7 Sonnet은 10^26 FLOP 모델로 간주되지 않으며, 훈련 비용은 수천만 달러에 불과.", "향후 모델들은 훨씬 더 커질 것."
- OpenAI의 GPT-4 $100M+ (1억 달러 이상), Google의 Gemini Ultra $200M+ (2억 달러 이상)
- AI 모델 훈련 비용의 하락: 최첨단 AI 모델 개발에 수억 달러가 필수적이지 않다는 점을 시사, Claude 3.7 Sonnet이 비교적 적은 비용으로 훈련되었음에도 높은 성능을 기대할 수 있음
- Anthropic CEO Dario Amodei: 미래의 AI 모델들은 "수십억 달러" 규모의 훈련 비용이 필요할 것이라고 전망 -> AI 모델이 단순한 언어 생성이 아닌 고급 추론(reasoning) 능력을 요구하는 방향으로 발전하면서 운영 비용도 증가할 가능성
- 비용 절감의 원인: 보다 효율적인 모델 설계 또는 최신 AI 하드웨어의 발전 덕분일 가능성, 기존 연구 및 사전 훈련된 데이터 재활용 등도 영향을 미쳤을 가능성
(3) 오픈에이아이, 유료 사용자들에게 '딥리서치' 기능 확대 출시, 하지만 API는 출시 보류
- 기존에는 ChatGPT Pro($200/월) 사용자만 사용 가능 -> 이제 ChatGPT Plus, Team, Enterprise, Edu 구독자도 이용 가능
- 제공 횟수 제한: Plus, Team, Enterprise, Edu 월 10회, Pro 기존 100회 → 120회로 증가
- 구글, Perplexity 등도 유사한 ‘Deep Research’ 제품 출시 경쟁 중
- 고급 AI 서비스의 ‘가치 입증’: AI 구독 모델의 높은 가격에 대한 사용자 납득 유도전략 -> 단순 챗봇이 아닌 "생산성 도구"로 자리 잡으려는 시도
- AI 기반 리서치 시장 선점 경쟁: 기업, 연구자, 전문가 대상 프리미엄 서비스 확장, 심층 분석 및 자동 보고서 생성 기능을 통한 B2B·B2C 시장 확대
- OpenAI는 Deep Research 에이전트가 사람들에게 어떻게 영향을 미칠 수 있는지 추가 테스트 필요하다고 언급 -> 생성형 AI가 의견 형성 및 정보 제공에서 어느 정도까지 신뢰성을 가질 수 있는지 검토할 필요
- OpenAI, ‘Deep Research’ AI 모델을 API에서 제공하지 않기로 결정: AI가 사람들의 신념을 바꾸거나 행동을 유도하는 위험성(설득 위험, persuasion risk)을 평가 중 -> AI의 사회적 영향력을 고려하여 윤리적·법적 검토 후 API 출시를 결정하려는 전략
- https://techcrunch.com/2025/02/25/openai-rolls-out-deep-research-to-paying-chatgpt-users/
- https://techcrunch.com/2025/02/25/why-openai-isnt-bringing-deep-research-to-its-api-just-yet/
(4) 애플, 반 다양성 정책 제안 부결
- 제안자는 보수 성향의 "National Center for Public Policy Research"
- Apple 주주들이 반(反) DEI(Diversity, Equity, Inclusion, 다양성·형평성·포용성) 제안을 기각 -> Apple 이사회는 반대 입장을 표명했으며, 주주들도 이에 동의
- 최근 다른 빅테크 기업들은 DEI 프로그램을 축소하거나 폐지하는 흐름으로 애플의 움직임은 화제
- 보수층의 반발: 특히 트럼프 행정부 이후 DEI 정책에 대한 부정적 시각 증가, 최근 몇 년간 DEI 정책이 법적 도전에 직면
- "법적 환경이 변화하면서, 향후 일부 조정이 필요할 수 있음" (Reuters 보도) -> 즉, DEI 정책을 유지할 계획이지만, 법적 규제에 따라 조정 가능성 있음
- https://techcrunch.com/2025/02/25/apple-shareholders-vote-down-anti-dei-proposal/
(5) 구글, 깃헙 코파일럿 대비 사용량 5배의 무료 AI 코딩 보조 도구 출시 예정
- Google, 무료 AI 코드 보완 및 지원 도구 ‘Gemini Code Assist for Individuals’ 출시: AI 기반 코드 자동 완성 및 오류 수정 기능 제공 -> GitHub Copilot과 유사한 기능을 갖춘 무료 서비스
- ‘Gemini Code Assist for GitHub’도 함께 출시: 자동 코드 리뷰 에이전트 역할, GitHub 내에서 코드 버그 탐색 및 수정 제안 기능 제공
- 업계 최고 수준의 무료 사용 한도: 월 18만 개 코드 자동 완성 (GitHub Copilot 무료 플랜 대비 90배), 하루 240회 챗 요청 가능 (GitHub Copilot 무료 플랜 대비 5배), 128,000 토큰 컨텍스트 윈도우 지원 (경쟁사 대비 4배 이상), 즉, 한 번에 더 많은 코드 컨텍스트를 분석 가능
- 무료 공개 미리보기(Public Preview) 신청 가능 (2월 25일부터)
- GitHub에서 자동 코드 리뷰 지원: PR(Pull Request) 자동 스캔 후 버그 탐지 및 코드 개선 제안, 개발자 생산성 및 코드 품질 향상 목표
- Microsoft-GitHub 독점에 도전: GitHub Copilot은 현재 AI 기반 코드 자동 완성 시장에서 선두, Ryan Salva(전 GitHub Copilot 책임자) 영입 → Google의 개발자 툴 시장 확장 가속화
- Google 개발자 도구 총괄 Ryan Salva: "초기 개발자들을 Code Assist로 유입시켜 장기적으로 유료 기업 플랜으로 전환 유도."
- 기업용 ‘Gemini Code Assist’는 이미 Google Cloud 기반으로 판매 중, 향후 GitLab, GitHub, Google Docs 등 다양한 툴과 연계 가능