트럼프 실리콘밸리 기술 자문단, 'AI의 진실성'에 역점 외 4건
[오늘의 인용글 - 마케팅은 제품 소개가 아니다]
좋은 마케팅 메시지는 제품이 무엇을 하고 어떤 이점을 줄 수 있는지를 말하는 데 그치지 않습니다. 좋은 마케팅 메시지는 목표 고객에게 깊은 공감을 전달하며, 이게 이뤄지기 위해선 뛰어난 경청이 필요합니다.
- 마티나 라우첸코, 러브드
Good messaging doesn't just say what a product does or its hoped-for benefits. It conveys a deeper understanding of the people the product is built for, which requires great listening skills.
- Martina Lauchengco, Loved
(1) 소프트뱅크, 1,000억 달러 대규모 미국 투자 발표
- 소프트뱅크 CEO 손정의(Masayoshi Son)가 1000억 달러를 미국에 투자할 계획을 발표 -> 이 발표는 도널드 트럼프 대통령 당선인과 함께 플로리다 마라라고에서 열린 기자회견에서 이루어짐
- 트럼프 대통령은 이번 투자를 통해 최소 10만 개의 미국 내 일자리가 창출될 것이라고 발표 -> 트럼프는 이를 “역사적 투자”라고 칭하며 인공지능(AI)과 신기술 산업을 미국 내에서 성장시키는 데 기여할 것이라고 강조
- 손정의는 2016년 트럼프 대통령 임기 첫해에 미국 스타트업에 500억 달러를 투자하고 5만 개 일자리 창출을 약속한 바 있음
- 이번 발표에서 손정의는 “트럼프 대통령이 '더블 다운'하는 스타일이기 때문에 나도 두 배로 투자하겠다”라고 언급
- 투자의 주요 목적: 이번 투자 계획은 AI와 첨단기술 산업을 비롯한 미래 산업의 미국 내 성장을 목표
- https://techcrunch.com/2024/12/16/softbank-ceo-announces-a-100-billion-investment-into-the-us/
(2) 트럼프 실리콘밸리 기술 자문단, 'AI의 진실성'에 역점
- 도널드 트럼프 대통령 당선인은 일론 머스크, 마크 안드리슨, 데이비드 삭스와 같은 실리콘밸리 기업가들을 기술 및 정책 자문으로 임명
- 이들은 AI의 빠른 개발과 채택을 지지하면서도, AI 검열(AI censorship)을 주요 이슈로 강조
- 마크 안드리슨: AI 검열은 소셜미디어 검열보다 더 위험하다고 경고 -> “AI가 거짓을 말하도록 프로그래밍된 세상은 궁극적인 디스토피아다”라고 언급
- 데이비드 삭스: Google과 OpenAI의 AI 챗봇이 정치적 올바름을 강요한다고 비판
- 일론 머스크: OpenAI의 “woke mind virus(정치적 올바름의 퍼짐)” 문제를 해결하기 위해 xAI를 설립하고 AI 챗봇 Grok을 개발
- Google Gemini 사건: AI 이미지 생성기가 잘못된 다문화 이미지를 생성하며 논란 발생, Google은 이를 실수라고 해명했지만, 일부에서는 의도된 결과라고 주장
- AI 챗봇들이 선거 결과 등 민감한 주제에 대한 답변을 회피하거나 잘못된 정보를 제공한 사례도 존재
- 트럼프의 기술 자문단은 AI 검열 문제를 문화적, 정치적 이슈로 부각시키며 향후 정책에 영향력을 행사할 가능성이 큼 -> 일론 머스크의 xAI와 같은 AI 경쟁사들은 OpenAI와 Google을 견제하며, AI의 진실성(truthfulness)을 핵심 과제로 삼고 있음
- 트럼프와 공화당이 AI 검열 문제를 법적 조사, 규제 또는 문화적 논쟁의 중심으로 삼을 가능성 있음 -> AI 기술과 관련한 정부 개입과 자유 표현의 한계에 대한 논의가 더욱 확대될 전망
(3) AI '월드 모델'의 개념
- World models(혹은 세계 시뮬레이터)는 인간이 자연스럽게 형성하는 세계에 대한 정신적 모델에서 영감을 받아 개발된 AI 시스템임
- 인간 두뇌는 감각 데이터를 바탕으로 세상을 이해하고 예측하며, 이를 바탕으로 즉각적이고 무의식적인 결정을 내림 -> 예시: 야구 타자가 100마일의 공을 예측하고 반응하는 것은 두뇌가 공의 경로를 모델링하기 때문
- 기존 AI는 단순히 패턴을 학습하지만, world models은 실제 세계의 원리를 이해하고 예측하도록 설계됨.
생성형 비디오 분야에서 특히 주목받고 있음 -> 예시: AI가 공이 튀어 오르는 이유를 이해하면 더 자연스럽고 정확한 비디오를 생성 가능
- 학습 데이터: 이미지, 비디오, 텍스트, 오디오를 통해 세상이 작동하는 방식을 학습하고 결과 예측 능력을 향상
- 활용 가능 분야: 생성형 비디오, 디지털 및 물리적 예측, 3D 가상 세계 생성, 로봇 공학
- 기술적 도전 과제: 막대한 컴퓨팅 파워 (현재의 생성형 AI보다 훨씬 더 많은 연산 자원을 필요), 편향과 한계 (학습 데이터의 부족 및 편향된 훈련으로 인해 특정 상황을 정확하게 이해하지 못할 수 있음), 데이터 품질 (세계 모델은 다양하면서도 정교한 데이터셋 필요)
- DeepMind와 OpenAI의 연구진은 세계 모델을 로봇 공학, 의사결정 AI 등에 활용할 수 있다고 전망 -> 3D 인터랙티브 세계의 자동 생성과 로봇의 인식 향상을 통해 AI와 실제 세계의 연결성이 크게 발전할 가능성
- https://techcrunch.com/2024/12/14/what-are-ai-world-models-and-why-do-they-matter/
(4) AI '추론 모델'의 등장 배경과 갑론을박
- OpenAI의 o1 모델 출시 이후 “Reasoning AI 모델”에 대한 관심이 급증 -> DeepSeek과 알리바바의 Qwen 팀도 OpenAI에 대응하는 추론 모델을 발표
- 기존의 “브루트 포스(Brute Force)” 방식(규모 확장)이 더 이상 큰 성능 향상을 가져오지 못하면서 새로운 접근법이 필요
- Reasoning 모델의 개념과 가능성: OpenAI는 reasoning 모델이 기존 모델보다 어려운 문제를 해결할 수 있다고 주장, 추론 과정에서 모델이 자체적으로 답을 검증하며 더 정교한 결과를 제공
- 비용과 한계: OpenAI의 o1 모델은 분석과 생성에 대해 일반 GPT-4o 모델보다 3~4배 비쌈
- 성능 제한: Carnegie Mellon 교수 Ameet Talwalkar는 reasoning 모델의 초기 성능이 인상적이지만, 과대평가된 부분이 있다고 지적, UCLA 교수 Guy Van Den Broeck는 현재 모델들이 “진정한 추론”이 아니며 훈련 데이터에 의존한다고 비판
- OpenAI, DeepSeek, 알리바바 외에도 많은 연구 기관과 벤처캐피털이 Reasoning AI를 미래 핵심 기술로 보고 있음
- 투명성과 연구 독점 우려: Talwalkar는 대형 AI 연구소들이 기술 혁신을 비공개화하며 학계와의 협력을 저해할 수 있다고 우려 -> “Reasoning 모델 발전은 주로 대형 산업 연구소가 주도할 가능성이 높다”는 의견을 제시
- https://techcrunch.com/2024/12/14/reasoning-ai-models-have-become-a-trend-for-better-or-worse/
(5) 오픈에이아이 공동 창립자 일리야 수츠케버, "슈퍼지능 AI는 예측 불가능할 것"
- 일리야 수츠케버(OpenAI 공동 창립자)는 NeurIPS AI 컨퍼런스에서 슈퍼지능 AI(인간보다 많은 작업에서 더 뛰어난 AI)에 대해 논의 -> 그는 이러한 AI는 현재의 AI와 질적으로 다를 것이며, 일부 면에서는 예측 불가능하다고 강조
- 자율적(agentic): 현재 AI는 제한적인 자율성을 보이지만, 슈퍼지능 AI는 진정한 의미에서 자율적으로 작동할 것
- 추론 능력: 제한된 데이터만으로도 상황을 이해하고 합리적으로 추론할 수 있음
- 자기 인식: 수츠케버는 슈퍼지능 AI가 자기 인식을 가질 가능성이 있다고 언급
- 권리 요구: 이러한 AI가 인간과 공존하며 권리를 원할 수도 있다고 주장
- 기술적·사회적 시사점: 슈퍼지능 AI의 등장은 기술적 혁신뿐만 아니라 윤리적, 사회적 변화를 요구할 가능성이 큼 -> AI의 자기 인식과 권리 문제는 향후 AI 거버넌스와 정책에 중요한 논의 주제가 될 것으로 예상