구글, 'AI 모드 검색' 출시 외 2건
[오늘의 인용글 - 망한 이유를 찾는 것이 성공의 길]
솔직히 말해서, MVP가 왜 제대로 작동하지 않았는지 이해하는 것이 가장 중요한 일일 것입니다. 이것이 회사를 살릴 수도 있습니다. 시간을 들여 깊이 고민하세요. 당신의 제품을 좋아하지 않은 사람들에게 직접 연락해 보세요. 그들과 솔직한 대화를 나누고, 시간을 내줘서 고맙다고 인사하세요.
그리고 만약 이 중요한 정보를 단순히 설문조사만 보내서 얻으려 한다면, 제가 직접 찾아가서 따끔하게 한마디할 겁니다.
- 로라 클레인, 린 스타트업을 위한 UX
Frankly, understanding why your MVP isn’t working is probably the most important thing you can do. It can literally save your company. Spend some time on it. Reach out personally to people who didn’t love your product. Have an honest conversation with them. Thank them for their time. And if you try to get this information by just sending them a survey, I will personally hunt you down and slap you across the face.
- Laura Klein. UX for Lean Startups
(1) 구글 전 CEO 에릭 슈미트, 초지능 인공지능을 위한 '맨해튼 프로젝트' 반대
- 전 구글 CEO 에릭 슈미트, Scale AI CEO 알렉산드르 왕, Center for AI Safety 디렉터 댄 헨드릭스가 "Superintelligence Strategy" 정책 보고서를 발표 -> 미국이 "맨해튼 프로젝트" 스타일의 AGI(초지능 인공지능) 개발을 추진해서는 안 된다고 주장
- 미국이 초지능 AI를 독점하려는 시도는 중국의 강력한 반발을 불러올 가능성이 높음 -> 특히 사이버 공격 등의 보복 조치를 유발할 수 있으며, 국제 관계를 불안정하게 만들 위험 존재
- 보고서에서는 이러한 전략이 국가 간 긴장을 고조시키고, 오히려 AI 안전성을 저해할 수 있음을 경고
- 최근 미국 정부 및 일부 산업 리더들은 AGI 개발을 위한 정부 주도 프로젝트를 제안 -> 미 에너지부 장관 크리스 라이트는 "우리는 AI 분야에서 새로운 맨해튼 프로젝트의 시작점에 있다"고 언급, 오픈AI 공동 창업자 그렉 브록먼도 정부 주도 AI 개발 계획에 일부 협력하는 모습
- 슈미트 등의 대안적 접근법 MAIM (Mutual Assured AI Malfunction): 핵무기 경쟁에서의 상호확증파괴(MAD, Mutually Assured Destruction) 개념을 AI에 적용 -> 특정 국가가 초지능 AI를 무기화하는 것을 방지하기 위해, 적대국 AI 프로젝트를 무력화할 수 있는 사이버 공격 능력을 강화하는 전략을 제안
- 미국이 초지능 AI 개발 경쟁에서 승리하는 것보다, 다른 국가들이 위험한 AI를 만들지 못하도록 저지하는 것이 더 중요하다고 강조
- “Doomers” (비관론자): AI 발전이 필연적으로 재앙을 초래할 것이라고 보고, 개발 속도를 늦춰야 한다고 주장
- “Ostriches” (낙관론자): AI 개발을 가속화해야 하며, 위험은 미래에 해결될 것이라고 믿음
- 보고서는 제3의 길 제안: AGI 개발을 신중하게 진행하면서 방어적 전략을 최우선시하는 접근법
- 슈미트는 이전까지 미국이 AI 경쟁에서 중국을 이겨야 한다는 입장을 강조해 왔음 -> 하지만 이번 보고서에서는 공격적 경쟁보다는 방어적 전략을 강화하는 방향을 제안하며 기존 입장에서 일부 후퇴한 모습
- https://techcrunch.com/2025/03/05/eric-schmidt-argues-against-a-manhattan-project-for-agi/
(2) 구글, 'AI 모드 검색' 출시
- 구글이 검색 엔진 내 AI 모드(AI Mode) 실험적 기능을 공개 -> 사용자가 복잡한, 다중 질문을 한 번에 검색할 수 있도록 설계됨, 구글 원 AI 프리미엄(Google One AI Premium) 구독자 대상으로 우선 출시, Search Labs에서 이용 가능
- AI 모드는 구글의 Gemini 2.0 모델을 활용, 사용자가 심층적인 탐색 및 비교 분석이 필요한 질문을 쉽게 해결할 수 있도록 지원
- 예시) “스마트 링, 스마트워치, 트래킹 매트의 수면 추적 기능 차이점은?” → 세부 비교 및 관련 기사 제공 -> 후속 질문 “깊은 수면 중 심박수 변화는?” → 연속 질의 가능
- 기존 검색에서는 복잡한 비교·탐색을 위해 여러 개의 쿼리(query) 입력이 필요했음 -> AI 모드는 ‘쿼리 팬아웃(query fan-out)’ 기술을 활용해 동시에 여러 검색을 실행, 결과를 통합해 제공, AI 기반 답변뿐만 아니라, 실시간 데이터(Knowledge Graph, 제품 쇼핑 데이터 등)도 활용
- AI 모드는 응답 생성 시 사실성(factuality)을 우선하며, 검증 가능한 정보를 활용 -> 민감한 주제(예: 건강 관련 질문)에서는 AI 답변 대신 신뢰할 수 있는 웹사이트 링크를 제공할 수도 있음, 다만, “최신 AI 기술처럼 완벽하지 않으며, 오류 가능성이 존재한다”는 점도 인정
- 향후 업데이트 계획: 더 직관적인 시각적 요소 추가 예정 (이미지, 영상, 인터랙티브 데이터 활용), 사용자 생성 콘텐츠(UGC) 포함 검토, AI가 적절한 하이퍼링크(예: 티켓 예약) 또는 멀티미디어(예: 사용 방법 영상)를 추천하도록 개선
(3) 전문가들, "AI는 아직 과학자를 돕기엔 부족하다."
- 구글의 'AI 공동 과학자' 발표: 구글은 AI가 과학자들이 가설을 세우고 연구 계획을 수립하는 데 도움을 줄 것이라고 홍보 -> AI를 통해 새로운 지식을 발견할 수 있다는 주장이지만, 전문가들은 이에 대해 회의적
- MIT 연구원 사라 비어리(Sara Beery): "흥미로운 도구지만, 과학계에서 실질적인 수요가 있는지 의문."
- 병리학자 파비아 두빅(Favia Dubyk): "초기 결과가 너무 모호해, 신뢰할 만한 과학자가 이를 심각하게 고려할 가능성 낮음."
- 구글은 AI가 백혈병 치료제 재활용 연구에 잠재력을 보였다고 주장하지만, 검증 가능한 데이터 부족
- 구글은 2020년 AI가 유방암을 인간 방사선 전문의보다 더 정확하게 진단한다고 발표 -> 그러나 하버드와 스탠퍼드 연구진은 "재현 가능한 데이터와 코드가 부족하다"고 반박
- 2023년에도 신소재 연구를 위한 AI(GNoME)가 40개 신소재를 합성했다고 했으나, 검증 결과 '진정한 신소재'는 하나도 없었음
- AI는 대량의 데이터를 분석해 가능성을 좁히는 데 도움을 줄 수 있지만, 혁신적인 문제 해결 능력이 부족
- "과학적 돌파구는 인간의 직관과 끈기로 이루어진다" – 로체스터 공대 교수 아시크 쿠다북쉬(Ashique KhudaBukhsh)
- AI는 실험실 맥락과 연구자의 역량을 고려하지 않기 때문에 현실적인 과학 연구에 적용하는 데 한계
- AI가 오히려 연구 신뢰성을 해칠 가능성: AI가 '가짜 연구'를 양산할 가능성 존재 -> 최근 연구에 따르면, AI가 생성한 가짜 논문이 Google Scholar 같은 학술 검색 엔진에 증가, AI 기반 연구가 많아지면, 논문 심사(peer review) 과정이 과부하되면서 검증되지 않은 연구가 확산될 위험
- 과학자들의 대안적 AI 활용 방향: AI가 과학 연구에서 쓸모없는 것은 아님 -> 논문 요약, 연구 데이터 정리, 실험 프로토콜 최적화 등 반복적인 작업 자동화에는 유용, 하지만 가설 생성과 연구 설계 같은 창의적이고 직관적인 과정은 인간 연구자에게 남겨져야 한다는 주장
- https://techcrunch.com/2025/03/05/experts-dont-think-ai-is-ready-to-be-a-co-scientist/