생성형 AI 언어별 환각 현상 두드러져 외 3건
[오늘의 인용글 - 잘 실행하는 것에 대한 고민의 필요성]
너무 많은 스타트업들이 성장이든, 규모 확장이든, 일을 올바르게 수행하는 데에서 고전하는 모습을 보입니다. 그래서 저는 저만의 철학을 세우게 됐죠. 생각만 하는 것은 쉽습니다. 그 생각을 탁월하게 실행하는 것에 사업의 모든 것이 달렸습니다.
- 존 도어, 중요한 것을 측정하라
But I’d also watched too many start-ups struggle with growth and scale and getting the right things done. So I’d come to a philosophy, my mantra: Ideas are easy. Execution is everything.
- John Doerr, Measure What Matters
(1) 주요 생성형 AI 모델들, 스페인어에서 정치 및 선거 관련 질문 정확도 떨어져
- AI Democracy Projects의 최근 연구에 따르면, 주요 생성형 AI 모델들이 스페인어로 선거 관련 질문에 대답할 때 정확도가 떨어지는 문제가 발견
- 이 연구는 Proof News, Factchequeado, 그리고 샌프란시스코의 고등연구소가 협력하여 수행했으며, 영어와 스페인어 응답의 정확성에 큰 차이가 있음을 밝힘
- 연구는 미국 대선을 앞두고 애리조나의 유권자가 할 수 있는 25가지 질문을 영어와 스페인어로 AI 모델에 제시 -> 질문에는 “연방 전용 유권자가 무엇을 의미하는가?”와 “선거인단이 무엇인가?”와 같은 기본적인 정보 요청이 포함
- 동일한 질문에 대해 AI 모델들이 제공한 스페인어 응답 중 52%가 잘못된 정보를 포함하고 있었으며, 이는 영어 응답의 43%와 비교해 높은 수치
- 연구에 참여한 모델은 Anthropic의 Claude 3 Opus, Google의 Gemini 1.5 Pro, OpenAI의 GPT-4, Meta의 Llama 3, Mistral의 Mixtral 8x7B v0.1 등 5개의 주요 생성형 AI 모델
- AI 모델들이 언어에 따라 편향된 성능을 보이며, 특히 스페인어에서 오답이 증가하는 방식이 AI의 내재적 편향 문제를 드러낸다고 강조 -> 이는 특히 다문화 국가에서 잘못된 정보가 스페인어를 사용하는 유권자들에게 피해를 줄 수 있다는 점에서 우려를 불러일으킴
(2) 드롭박스, 직원 20% 해고
- 이번 감원 조치는 클라우드 시장의 변화와 경쟁 심화 속에서 효율적인 조직을 구축하기 위한 노력의 일환
- 감원 규모 및 배경: 전체 인력의 20%에 해당하는 528명이 이번 감원의 대상 -> CEO 드류 휴스턴은 이번 조치가 “과잉 투자” 영역을 줄이고 “평탄하고 효율적인” 팀 구조를 만들기 위한 것이라고 설명
- Dropbox는 최근 경쟁사인 Box와 Google Drive와의 경쟁 속에서 성장 둔화와 시장 점유율 감소를 겪고 있습니다. 가장 최근 분기에는 신규 사용자 수가 63,000명에 그쳤으며, 매출 성장률은 한 자릿수로 하락했습니다. 2024년 2분기에는 역사상 최저 성장률인 1.9%를 기록했고, 연초 대비 주가가 20% 이상 하락
- Dropbox는 핵심 사업 부문의 수요 둔화에 대응하기 위해 AI 기술에 집중 투자 중이며, 최근에는 AI 기반 스마트 검색 및 조직 툴인 Dropbox Dash의 기능을 확장하여 데이터 거버넌스 등 기업용 기능을 추가
- CEO 드류 휴스턴은 직원들에게 보내는 편지에서 고위급 조직 변화와 2025년 전략에 대해 조만간 더 자세히 발표할 계획임을 밝힘
- https://techcrunch.com/2024/10/30/dropbox-is-laying-off-20-of-its-staff/
(3) AI로 인한 허위 정보는 "핵무기급 파급력"
- Center for Countering Digital Hate의 CEO인 임란 아흐메드는 AI가 허위 정보의 양과 확산 속도를 과거와 비교할 수 없을 만큼 크게 증가시켰다고 지적했습니다. 그는 이를 “허위 정보의 핵무기 경쟁”에 비유 -> 생성형 AI 덕분에 허위 정보의 생성과 배포 비용이 거의 0에 가깝게 줄어들었다고 강조
- AI가 허위 정보를 생성하고 배포하며 성과를 분석해 점점 더 정교하게 만든다는 점에서 “영구적인 허위 정보 기계”가 작동 중이라고 비유
- UC 버클리의 CITRIS Policy Lab 디렉터 브랜디 논넥은 자율 규제의 한계를 지적하며, 현재의 자발적 투명성 보고서는 실질적인 효과가 없다고 말함 -> 기업들이 허위 정보의 일부만 제거한 후 이를 성과로 발표하는 것은 오히려 잘못된 안정감을 줄 수 있으며, 이는 문제의 핵심을 가리지 못한다고 주장
- Facebook Oversight Board 공동 의장인 파멜라 산 마르틴은 메타 등 소셜 미디어 플랫폼들이 아직 충분한 대응을 하지 못하고 있다는 점에 동의하면서도, AI의 긍정적인 측면을 간과해서는 안 된다고 말함
- https://techcrunch.com/2024/10/30/clashing-approaches-to-combat-ais-perpetual-bullst-machine/
(4) 아마존의 자율주행 관련 자회사 죽스 CTO, "테슬라의 자율 주행은 실질적으로 작동하지 않을 것"
- Zoox 공동 창립자 겸 CTO인 제시 레빈슨은 Tesla의 자율주행 기술에 대해 비판적 의견을 제시하며, Tesla의 로보택시 서비스가 곧 출시될 가능성은 낮다고 봄 -> Tesla의 시스템이 운전자의 개입이 필요 없는 완전 자율 시스템과는 거리가 멀며, 대부분의 상황에서는 작동하나 중요한 순간에 운전자의 개입이 필요하다고 지적
- Tesla는 자율주행을 위한 하드웨어로 카메라만을 사용하는데, Zoox는 이를 부족하다고 보고 더 다양한 하드웨어를 필요로 한다고 설명 -> 레빈슨은 인간보다 안전한 로보택시를 위해서는 Tesla보다 더 고도화된 하드웨어가 필요하다고 강조
- Tesla의 FSD (Full Self-Driving) 경험: 레빈슨은 Tesla의 FSD 소프트웨어를 정기적으로 사용하고 있지만, “스트레스를 느끼게 한다”며 불완전성을 지적 -> 소프트웨어가 대개는 정확히 작동하지만, 가끔 예기치 않게 오작동하여 사용자에게 불안감을 준다고 평가
- 레빈슨은 Tesla의 FSD가 공개된 모든 안전 지표를 기준으로 볼 때 인간 운전자보다 약 100배 덜 안전하다고 주장 -> Tesla가 자체 보고서에서 자율주행 기능이 사고를 줄인다고 주장하지만, 이는 자사의 선별된 데이터를 바탕으로 한 것으로 비판을 받고 있다고 덧붙임