brunch

You can make anything
by writing

C.S.Lewis

by florent Dec 17. 2024

24년 12월 17일 흠터레스팅 테크 뉴스

트럼프 실리콘밸리 기술 자문단, 'AI의 진실성'에 역점 외 4건 


[오늘의 인용글 - 마케팅은 제품 소개가 아니다]


좋은 마케팅 메시지는 제품이 무엇을 하고 어떤 이점을 줄 수 있는지를 말하는 데 그치지 않습니다. 좋은 마케팅 메시지는 목표 고객에게 깊은 공감을 전달하며, 이게 이뤄지기 위해선 뛰어난 경청이 필요합니다.

- 마티나 라우첸코, 러브드

Good messaging doesn't just say what a product does or its hoped-for benefits. It conveys a deeper understanding of the people the product is built for, which requires great listening skills.

- Martina Lauchengco, Loved


(1) 소프트뱅크, 1,000억 달러 대규모 미국 투자 발표

- 소프트뱅크 CEO 손정의(Masayoshi Son)가 1000억 달러를 미국에 투자할 계획을 발표 -> 이 발표는 도널드 트럼프 대통령 당선인과 함께 플로리다 마라라고에서 열린 기자회견에서 이루어짐

트럼프 대통령은 이번 투자를 통해 최소 10만 개의 미국 내 일자리가 창출될 것이라고 발표 -> 트럼프는 이를 “역사적 투자”라고 칭하며 인공지능(AI)과 신기술 산업을 미국 내에서 성장시키는 데 기여할 것이라고 강조

손정의는 2016년 트럼프 대통령 임기 첫해에 미국 스타트업에 500억 달러를 투자하고 5만 개 일자리 창출을 약속한 바 있음

- 이번 발표에서 손정의는 “트럼프 대통령이 '더블 다운'하는 스타일이기 때문에 나도 두 배로 투자하겠다”라고 언급

- 투자의 주요 목적: 이번 투자 계획은 AI와 첨단기술 산업을 비롯한 미래 산업의 미국 내 성장을 목표

https://techcrunch.com/2024/12/16/softbank-ceo-announces-a-100-billion-investment-into-the-us/


(2) 트럼프 실리콘밸리 기술 자문단, 'AI의 진실성'에 역점

- 도널드 트럼프 대통령 당선인은 일론 머스크, 마크 안드리슨, 데이비드 삭스와 같은 실리콘밸리 기업가들을 기술 및 정책 자문으로 임명

- 이들은 AI의 빠른 개발과 채택을 지지하면서도, AI 검열(AI censorship)을 주요 이슈로 강조

- 마크 안드리슨: AI 검열은 소셜미디어 검열보다 더 위험하다고 경고 -> “AI가 거짓을 말하도록 프로그래밍된 세상은 궁극적인 디스토피아다”라고 언급

- 데이비드 삭스: Google과 OpenAI의 AI 챗봇이 정치적 올바름을 강요한다고 비판

- 일론 머스크: OpenAI의 “woke mind virus(정치적 올바름의 퍼짐)” 문제를 해결하기 위해 xAI를 설립하고 AI 챗봇 Grok을 개발

- Google Gemini 사건: AI 이미지 생성기가 잘못된 다문화 이미지를 생성하며 논란 발생, Google은 이를 실수라고 해명했지만, 일부에서는 의도된 결과라고 주장

- AI 챗봇들이 선거 결과 등 민감한 주제에 대한 답변을 회피하거나 잘못된 정보를 제공한 사례도 존재

- 트럼프의 기술 자문단은 AI 검열 문제를 문화적, 정치적 이슈로 부각시키며 향후 정책에 영향력을 행사할 가능성이 큼 -> 일론 머스크의 xAI와 같은 AI 경쟁사들은 OpenAI와 Google을 견제하며, AI의 진실성(truthfulness)을 핵심 과제로 삼고 있음

- 트럼프와 공화당이 AI 검열 문제를 법적 조사, 규제 또는 문화적 논쟁의 중심으로 삼을 가능성 있음 -> AI 기술과 관련한 정부 개입과 자유 표현의 한계에 대한 논의가 더욱 확대될 전망

https://techcrunch.com/2024/12/15/trumps-silicon-valley-advisers-have-ai-censorship-in-their-crosshairs/


(3) AI '월드 모델'의 개념

- World models(혹은 세계 시뮬레이터)는 인간이 자연스럽게 형성하는 세계에 대한 정신적 모델에서 영감을 받아 개발된 AI 시스템임

- 인간 두뇌는 감각 데이터를 바탕으로 세상을 이해하고 예측하며, 이를 바탕으로 즉각적이고 무의식적인 결정을 내림 -> 예시: 야구 타자가 100마일의 공을 예측하고 반응하는 것은 두뇌가 공의 경로를 모델링하기 때문

- 기존 AI는 단순히 패턴을 학습하지만, world models은 실제 세계의 원리를 이해하고 예측하도록 설계됨.

생성형 비디오 분야에서 특히 주목받고 있음 -> 예시: AI가 공이 튀어 오르는 이유를 이해하면 더 자연스럽고 정확한 비디오를 생성 가능

- 학습 데이터: 이미지, 비디오, 텍스트, 오디오를 통해 세상이 작동하는 방식을 학습하고 결과 예측 능력을 향상

- 활용 가능 분야: 생성형 비디오, 디지털 및 물리적 예측, 3D 가상 세계 생성, 로봇 공학

- 기술적 도전 과제: 막대한 컴퓨팅 파워 (현재의 생성형 AI보다 훨씬 더 많은 연산 자원을 필요), 편향과 한계 (학습 데이터의 부족 및 편향된 훈련으로 인해 특정 상황을 정확하게 이해하지 못할 수 있음), 데이터 품질 (세계 모델은 다양하면서도 정교한 데이터셋 필요)

- DeepMind와 OpenAI의 연구진은 세계 모델을 로봇 공학, 의사결정 AI 등에 활용할 수 있다고 전망 -> 3D 인터랙티브 세계의 자동 생성과 로봇의 인식 향상을 통해 AI와 실제 세계의 연결성이 크게 발전할 가능성

https://techcrunch.com/2024/12/14/what-are-ai-world-models-and-why-do-they-matter/


(4) AI '추론 모델'의 등장 배경과 갑론을박

OpenAI의 o1 모델 출시 이후 “Reasoning AI 모델”에 대한 관심이 급증 -> DeepSeek과 알리바바의 Qwen 팀도 OpenAI에 대응하는 추론 모델을 발표

- 기존의 “브루트 포스(Brute Force)” 방식(규모 확장)이 더 이상 큰 성능 향상을 가져오지 못하면서 새로운 접근법이 필요

- Reasoning 모델의 개념과 가능성: OpenAI는 reasoning 모델이 기존 모델보다 어려운 문제를 해결할 수 있다고 주장, 추론 과정에서 모델이 자체적으로 답을 검증하며 더 정교한 결과를 제공

- 비용과 한계: OpenAI의 o1 모델은 분석과 생성에 대해 일반 GPT-4o 모델보다 3~4배 비쌈

- 성능 제한: Carnegie Mellon 교수 Ameet Talwalkar는 reasoning 모델의 초기 성능이 인상적이지만, 과대평가된 부분이 있다고 지적, UCLA 교수 Guy Van Den Broeck는 현재 모델들이 “진정한 추론”이 아니며 훈련 데이터에 의존한다고 비판

OpenAI, DeepSeek, 알리바바 외에도 많은 연구 기관과 벤처캐피털이 Reasoning AI를 미래 핵심 기술로 보고 있음

- 투명성과 연구 독점 우려: Talwalkar는 대형 AI 연구소들이 기술 혁신을 비공개화하며 학계와의 협력을 저해할 수 있다고 우려 -> “Reasoning 모델 발전은 주로 대형 산업 연구소가 주도할 가능성이 높다”는 의견을 제시

https://techcrunch.com/2024/12/14/reasoning-ai-models-have-become-a-trend-for-better-or-worse/


(5) 오픈에이아이 공동 창립자 일리야 수츠케버, "슈퍼지능 AI는 예측 불가능할 것"

- 일리야 수츠케버(OpenAI 공동 창립자)는 NeurIPS AI 컨퍼런스에서 슈퍼지능 AI(인간보다 많은 작업에서 더 뛰어난 AI)에 대해 논의 -> 그는 이러한 AI는 현재의 AI와 질적으로 다를 것이며, 일부 면에서는 예측 불가능하다고 강조

- 자율적(agentic): 현재 AI는 제한적인 자율성을 보이지만, 슈퍼지능 AI는 진정한 의미에서 자율적으로 작동할 것

- 추론 능력: 제한된 데이터만으로도 상황을 이해하고 합리적으로 추론할 수 있음

- 자기 인식: 수츠케버는 슈퍼지능 AI가 자기 인식을 가질 가능성이 있다고 언급

- 권리 요구: 이러한 AI가 인간과 공존하며 권리를 원할 수도 있다고 주장

- 기술적·사회적 시사점: 슈퍼지능 AI의 등장은 기술적 혁신뿐만 아니라 윤리적, 사회적 변화를 요구할 가능성이 큼 -> AI의 자기 인식과 권리 문제는 향후 AI 거버넌스와 정책에 중요한 논의 주제가 될 것으로 예상

https://techcrunch.com/2024/12/13/openai-co-founder-ilya-sutskever-believes-superintelligent-ai-will-be-unpredictable/


브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari