- 스탠포드 대학 발표 자료 465p 자료 후다닥 분석
Stanford HAI(Human-Centered Artificial Intelligence)에서 발간한 'AI Index Report 2025'는 현재 AI 기술의 현황과 발전 방향을 가늠하는 가장 포괄적이고 권위 있는 자료 중 하나입니다. 본 보고서는 AI Index Report 2025의 주요 내용을 장(Chapter)별로 심층적으로 분석하고 정리하여, AI 분야의 복잡한 동향을 이해하는 데 도움을 드리고자 합니다. 보고서 원본의 방대한 데이터를 바탕으로 핵심적인 트렌드와 시사점을 상세하게 전달하는 데 중점을 두었습니다.
AI 연구개발(R&D)은 기술 발전의 근간을 이루며, 혁신의 방향과 속도를 결정합니다. 2025년 보고서는 R&D 지형의 몇 가지 중요한 변화와 지속적인 추세를 보여줍니다.
산업계 vs. 학계 역할 분담 심화 ��: 주목할 만한 AI 모델 개발: 2024년 주목할 만한 모델의 거의 90%가 산업계에서 나왔으며, 이는 2023년의 60%에서 크게 증가한 수치입니다. 산업계의 막대한 투자가 모델 규모 확장과 성능 향상을 주도하고 있습니다. 영향력 있는 연구: 반면, 지난 3년간 가장 많이 인용된(Top 100) AI 논문은 학계에서 가장 많이 배출되었습니다.
AI 연구의 글로벌 지형 변화 �: 논문 출판: 2023년 기준, 중국은 AI 논문 출판량(23.2%)과 인용 횟수(22.6%) 모두에서 세계 1위를 차지했습니다. 영향력 높은 연구: 하지만 가장 영향력 있는(Top 100 인용) 논문은 미국 기관에서 가장 많이 나왔습니다. 주목할 만한 모델: 모델 개발 측면에서는 여전히 미국이 주도하고 있습니다 (2024년 미국 40개 vs 중국 15개, 유럽 3개).
AI 간행물 급증 및 CS 분야 지배력 강화 �: AI 관련 논문은 2013년 약 10만 건에서 2023년 약 24만 건 이상으로 10년간 2배 이상 증가했습니다. 컴퓨터 과학(CS) 분야 내 AI 논문 비중은 2013년 21.6%에서 2023년 41.8%로 급증하며 AI가 CS 연구의 핵심 동력임을 보여줍니다. 논문 발행처는 전통적인 저널(41.8%)과 컨퍼런스(34.3%) 외 arXiv 같은 리포지토리 비중이 증가하는 추세입니다.
AI 특허 급증 �: AI 특허 수는 2010년 3,833건에서 2023년 122,511건으로 폭발적으로 증가했으며, 최근 1년 사이 29.6% 증가했습니다. 2023년 기준, 중국이 전 세계 AI 특허의 69.7%를 차지하며 양적으로 압도적인 우위를 보였고, 인구 대비 특허 건수에서는 한국과 룩셈부르크가 두각을 나타냈습니다.
AI 모델의 진화: 규모, 비용, 접근성 ��: 규모 확장: 모델 학습에 필요한 컴퓨팅 파워는 약 5개월마다, 데이터셋 크기는 약 8개월마다 2배씩 증가하고 있으며, 학습 전력 소비량은 매년 2배씩 늘고 있습니다. 학습 비용: 최첨단 모델 학습 비용은 천문학적으로 증가하여 GPT-4는 1억 달러 이상, Llama 3.1 405B는 약 1억 7천만 달러로 추정되며, 10억 달러 규모의 학습도 진행 중입니다. 추론 비용 급락 �: 반면, 모델 사용(추론) 비용은 급격히 하락했습니다. GPT-3.5 수준 성능 모델의 토큰당 추론 비용은 2022년 11월 100만 토큰당 20달러에서 2024년 10월 0.07달러로 약 18개월 만에 280배 이상 감소했습니다.
AI 하드웨어 발전 ⚙️: 머신러닝 하드웨어 성능(16비트 부동소수점 연산 기준)은 연평균 43% 성장(1.9년마다 2배)하고 있습니다. 가격 대비 성능은 연 30% 개선되고 있으며, 에너지 효율은 연 40% 향상되고 있습니다.
환경 영향 증가 �⚠️: AI 모델 학습에 따른 탄소 배출량이 급증하고 있습니다. 초기 AlexNet(2012)의 0.01톤과 비교해, GPT-3(2020)는 588톤, GPT-4(2023)는 5,184톤, Llama 3.1 405B(2024)는 8,930톤을 배출한 것으로 추정됩니다. 이는 평균적인 미국인 연간 배출량(18톤)의 수백 배에 달합니다.
AI 기술 성능은 전례 없는 속도로 발전하고 있으며, 기존의 한계를 넘어서는 새로운 가능성을 보여주고 있습니다.
벤치마크 정복 가속화 �: 2023년에 새롭게 제시된 고난도 벤치마크(MMMU, GPQA, SWE-bench 등)에서 불과 1년 만에 AI 성능이 급격히 향상되었습니다. MMMU +18.8%p, GPQA +48.9%p, SWE-bench +67.3%p 상승. 이는 AI가 새로운 과제를 습득하고 해결하는 능력이 기하급수적으로 발전하고 있음을 시사합니다.
오픈소스 모델의 약진 �: 과거 비공개(Closed-weight) 모델 대비 성능 격차가 컸던 공개(Open-weight) 모델들이 빠르게 격차를 좁혔습니다. Chatbot Arena 리더보드 기준, 성능 차이가 2024년 초 8.0%에서 2025년 초 1.7%로 크게 줄었습니다. 이는 Meta의 Llama 3.1, DeepSeek-V3 등 고성능 공개 모델 출시에 힘입은 결과입니다.
미국 vs. 중국 모델 성능 격차 축소 ����: 2023년 미국 모델이 중국 모델을 크게 앞섰던 추세가 2024년 들어 급격히 변화했습니다. MMLU, MMMU, MATH, HumanEval 등 주요 벤치마크에서의 성능 격차가 2023년 말 두 자릿수에서 2024년 말 한 자릿수 초반 또는 거의 동등한 수준으로 좁혀졌습니다.
최첨단 모델 성능 수렴화 �: 최상위 AI 모델 간의 성능 차이가 줄어들고 있습니다. Chatbot Arena 리더보드 기준, 1위와 10위 모델 간 Elo 점수 차이가 11.9%에서 5.4%로 감소했고, 1위와 2위 모델 간 격차는 4.9%에서 0.7%로 좁혀졌습니다. 이는 고품질 모델 개발사가 늘어나면서 경쟁이 심화되고 있음을 보여줍니다.
새로운 추론 패러다임 등장 (Test-Time Compute) �: OpenAI의 o1, o3 모델처럼 추론 과정에서 반복적으로 사고하고 검증하는('Test-Time Compute') 방식이 도입되어 성능을 극적으로 향상시켰습니다. o1은 국제수학올림피아드 예선 문제에서 GPT-4o(9.3%) 대비 월등히 높은 74.4%의 점수를 기록했습니다. 단, 이러한 향상된 추론 능력은 비용(o1은 GPT-4o보다 약 6배 비쌈)과 지연 시간(약 30~40배 느림) 증가라는 대가를 수반합니다.
고품질 비디오 생성 모델 발전 �: 2024년에는 OpenAI의 SORA, Stability AI의 Stable Video 3D/4D, Meta의 Movie Gen, Google DeepMind의 Veo 2 등 텍스트 입력 기반 고품질 비디오 생성 모델들이 대거 출시되었습니다. 이는 2023년 모델들에 비해 현저히 향상된 품질을 보여줍니다.
소형 모델의 성능 강화 �: 더 적은 파라미터 수를 가진 모델로도 높은 성능을 달성하는 추세가 나타나고 있습니다. MMLU 60% 이상 점수를 기록한 가장 작은 모델은 2022년 540B 파라미터의 PaLM이었으나, 2024년에는 3.8B 파라미터의 Microsoft Phi-3-mini가 동일 성능을 달성했습니다(142배 크기 감소).
지속되는 과제: 복잡한 추론 및 계획 �: LLM은 산술, 계획 등 논리적 추론이 필요한 문제, 특히 학습 데이터에 없던 대규모 문제 해결에 여전히 어려움을 겪습니다. 이는 신뢰성이 중요한 고위험 애플리케이션에서의 활용을 제약하는 요인입니다.
AI 에이전트의 초기 가능성 �: RE-Bench와 같은 에이전트 평가 벤치마크가 등장했습니다. 짧은 시간(2시간) 내 작업에서는 AI 에이전트가 인간 전문가보다 4배 높은 점수를 보였으나, 시간이 늘어나면(32시간) 인간이 AI를 2배 차이로 앞섰습니다. 특정 작업(Triton 커널 작성 등)에서는 이미 인간 수준의 전문성을 더 빠르고 저렴하게 제공합니다.
AI의 사회적 통합이 심화됨에 따라, 책임감 있는 AI(RAI)의 중요성이 커지고 있지만, 실제 적용과 평가는 여러 과제에 직면해 있습니다.
RAI 평가 표준화 부족 및 신규 벤치마크 등장 ✅: LLM에 대한 표준화된 RAI 벤치마크는 여전히 부족하지만, HELM Safety, AIR-Bench, FACTS 등 사실성, 안전성, 편향성 등을 평가하기 위한 새로운 벤치마크들이 등장하며 간극을 메우고 있습니다.
AI 관련 사고 급증 �⚠️: AI 사고 데이터베이스(AIID)에 따르면, 2024년 보고된 AI 관련 사고 건수는 233건으로 역대 최고치를 기록했으며, 이는 2023년 대비 56.4% 증가한 수치입니다. 이는 AI 사용 확대와 대중 인식 증가를 반영하는 것으로 보입니다.
기업의 RAI 위험 인식과 실행 간 격차 �: McKinsey 설문조사에 따르면, 많은 기업이 RAI 위험(부정확성, 규제 준수, 사이버보안 등)을 인지하고 있지만, 이를 해결하기 위한 적극적인 조치는 부족한 것으로 나타났습니다. 특히 지식재산권 침해, 조직 평판 관련 위험에서 인식과 실행 간 격차가 컸습니다.
RAI에 대한 정책 입안자들의 관심 증대 �⚖️: 2024년에는 AI 거버넌스에 대한 국제적 협력이 강화되었으며, OECD, EU, UN, 아프리카 연합 등 주요 기구들이 투명성, 신뢰성 등 핵심 RAI 원칙을 담은 프레임워크를 발표했습니다.
데이터 공유지(Data Commons)의 축소 �: AI 모델 학습에 필수적인 공개 웹 데이터에 대한 접근이 점점 더 제한되고 있습니다. 많은 웹사이트가 AI 학습 목적의 데이터 스크래핑을 제한하는 프로토콜(robots.txt 등)을 도입하면서, C4 Common Crawl 데이터셋 내 활성 도메인의 제한된 토큰 비율이 2024년에 20-33%까지 급증했습니다(2023년 5-7%). 이는 데이터 다양성, 모델 정렬, 확장성에 영향을 미칠 수 있습니다.
기반 모델 투명성 개선, 그러나 여전히 과제 남아 �: Foundation Model Transparency Index(FMTI)에 따르면, 주요 모델 개발사들의 평균 투명성 점수는 2023년 10월 37%에서 2024년 5월 58%로 개선되었습니다. 하지만 데이터 접근성, 저작권 상태, 다운스트림 영향 등 여전히 많은 영역에서 불투명성이 존재합니다.
사실성 및 진실성 평가 벤치마크 발전 �: HaluEval, TruthfulQA 등 초기 벤치마크의 한계를 극복하기 위해 HHEM 리더보드, FACTS, SimpleQA 등 더 포괄적이고 어려운 평가 방법들이 등장했습니다. HHEM 리더보드 기준 최신 모델들의 환각률은 1%대로 낮아졌습니다.
선거 관련 AI 허위정보 확산 (영향력은 불분명) �️: 2024년 미국 대선을 포함하여 전 세계 10여 개국 선거에서 AI 관련 허위정보 사례가 다수 발생했습니다. 하지만 이것이 실제 선거 결과에 미친 측정 가능한 영향에 대해서는 아직 명확한 결론이 나지 않았습니다.
암묵적 편향성 지속 ⚖️: GPT-4, Claude 3 Sonnet 등 명시적으로 편향을 줄이도록 설계된 LLM에서도 여전히 인종, 성별 등에 대한 암묵적 편향이 나타나고 있습니다. 이는 의사결정 과정에서 차별을 강화할 수 있음을 시사합니다.
학계의 RAI 연구 관심 증가 �: 주요 AI 학회에서 승인된 RAI 관련 논문 수가 2023년 992편에서 2024년 1,278편으로 28.8% 증가하며, AI 연구 커뮤니티 내 RAI의 중요성이 커지고 있음을 보여줍니다.
AI는 경제 전반에 걸쳐 막대한 영향을 미치기 시작했으며, 투자, 고용, 생산성, 기업 활동 등 다방면에 걸쳐 변화를 주도하고 있습니다.
기록적인 글로벌 AI 투자 �: 2024년 전 세계 기업의 AI 관련 총 투자액(M&A, 민간투자, 공모 등 포함)은 2,523억 달러로 전년 대비 25.5% 증가했습니다. 특히 민간 투자가 1,508억 달러로 44.5% 급증하며 성장을 견인했습니다. 생성형 AI 투자 열풍: 생성형 AI 분야 민간 투자는 339억 달러로 전년 대비 18.7% 증가했으며, 2022년 대비 8.5배 이상 성장했습니다. 전체 AI 민간 투자의 20% 이상을 차지합니다. 미국의 압도적 투자 주도: 미국의 민간 AI 투자는 1,091억 달러로, 2위 중국(93억 달러)의 약 12배, 3위 영국(45억 달러)의 24배에 달했습니다. 생성형 AI 분야에서는 격차가 더욱 벌어졌습니다.
기업의 AI 도입 급증 ��: 2024년, 조직 내 하나 이상의 비즈니스 기능에서 AI를 사용한다고 응답한 비율은 78%로, 2023년의 55%에서 크게 증가했습니다. 생성형 AI를 하나 이상의 기능에서 사용한다고 응답한 비율도 2023년 33%에서 2024년 71%로 두 배 이상 급증했습니다.
AI의 재무적 영향 가시화 (초기 단계) �: AI 도입으로 비용 절감(서비스 운영 49%, 공급망 43% 등)과 매출 증대(마케팅/영업 71%, 공급망 63% 등) 효과가 나타나고 있지만, 대부분 5~10% 미만의 낮은 수준에 머물러 있습니다. 아직 가치 창출 초기 단계임을 시사합니다.
지역별 AI 도입 격차 변화 (중화권 부상) �: 북미 지역이 여전히 AI 도입률에서 선두를 유지하고 있지만(82%), 중화권(Greater China)의 도입률이 전년 대비 27%p 급증하며 빠르게 추격하고 있습니다. 유럽 역시 23%p 증가하며(80%) 글로벌 경쟁이 심화되고 있음을 보여줍니다.
산업용 로봇 시장 동향 �: 중국의 지배력 지속 (약간 완화): 2023년 중국은 276,300대의 산업용 로봇을 설치하여 일본의 6배, 미국의 7.3배를 기록하며 전 세계 설치량의 51.1%를 차지했습니다. 다만, 전 세계 나머지 국가 합계보다 많은 설치량을 유지하면서도 그 격차는 2022년 대비 소폭 줄었습니다. 협동 로봇 및 서비스 로봇 증가: 인간과 함께 작업하는 협동 로봇의 설치 비중이 2017년 2.8%에서 2023년 10.5%로 증가했습니다. 의료 분야를 제외한 대부분의 서비스 로봇 설치도 증가하여, 인간 대면 역할 로봇의 중요성이 커지고 있음을 나타냅니다.
AI가 촉발하는 에너지원 변화 (원자력 관심 증대) ⚡⚛️: AI 데이터 센터의 막대한 전력 수요를 충당하기 위해 마이크로소프트(Three Mile Island 원자로 재가동 계약), 구글, 아마존 등이 원자력 에너지 확보 계약을 체결하는 등 에너지 지형에 변화가 감지되고 있습니다.
AI의 생산성 향상 및 기술 격차 완화 효과 재확인 ����: 작년에 이어 올해 추가 연구들에서도 AI가 업무 생산성을 향상시키고, 대부분의 경우 저숙련 노동자와 고숙련 노동자 간의 기술 격차를 좁히는 데 도움을 준다는 결과가 확인되었습니다.
AI는 생명 과학 및 의료 분야에서 혁신적인 발견과 임상 적용을 가속화하며 중요한 역할을 수행하고 있습니다.
단백질 서열 분석 모델의 발전 �: 2024년에는 ESM3, AlphaFold 3 등 더 크고 성능이 뛰어난 단백질 서열 분석 모델들이 출시되었습니다. 모델 규모가 커짐에 따라 단백질 구조 및 상호작용 예측 정확도가 지속적으로 향상되고 있습니다. AlphaFold 3는 단백질과 다른 생체분자(DNA, RNA 등)의 상호작용까지 예측 가능합니다. 공개 단백질 데이터베이스(UniProt, PDB, AlphaFold DB 등)의 규모도 급격히 팽창하여 AI 연구를 뒷받침하고 있습니다.
AI 기반 과학적 발견 가속화 �: AI는 생물학적 작업을 위한 LLM 에이전트(Aviary), 산불 예측 정확도를 높인 FireSat 등 다양한 과학 분야에서 혁신을 주도하고 있습니다. AI 기반 연구의 중요성은 2024년 노벨상 수상으로도 입증되었습니다. 딥러닝(물리학), 단백질 폴딩(화학, AlphaFold), 강화학습(튜링상) 분야의 선구자들이 수상의 영예를 안았습니다.
LLM의 임상 지식 향상 및 의사 능력 초과 �⚕️<�: 최신 LLM(OpenAI o1)은 의학 지식 평가 벤치마크인 MedQA에서 96.0%의 정확도를 기록하며 새로운 최고 기록을 세웠습니다. 이는 2023년 최고 점수보다 5.8%p, 2022년 말 대비 28.4%p 향상된 수치입니다. 일부 연구에서는 복잡한 임상 사례 진단, 암 탐지, 고위험 환자 식별 등 특정 임상 작업에서 AI가 의사(AI 지원 포함/미포함)보다 뛰어난 성능을 보였습니다. 다만, AI-의사 협업이 최상의 결과를 낸다는 초기 연구도 있어 추가 연구가 필요합니다.
FDA 승인 AI 의료기기 급증 ✅: 미국 FDA가 승인한 AI 기반 의료기기 수가 폭발적으로 증가했습니다. 1995년 첫 승인 이후 2015년까지 누적 6개에 불과했지만, 2023년 한 해에만 223개가 승인되었습니다. 이는 AI 기술의 임상적 유용성과 안전성에 대한 신뢰가 높아지고 있음을 보여줍니다.
의료 분야 합성 데이터의 잠재력 �: 2024년 연구들은 AI가 생성한 합성 데이터가 건강의 사회적 결정요인(SDoH) 식별 개선, 프라이버시 보호 임상 위험 예측 강화, 신약 화합물 발견 촉진 등에 기여할 수 있음을 시사합니다.
의료 AI 윤리 연구 급증 ⚖️: 의료 AI의 윤리적 문제에 대한 학계의 관심이 높아져 관련 논문 수가 2020년 288편에서 2024년 1,031편으로 4배 가까이 증가했습니다. 편향성, 프라이버시, 형평성 등이 주요 논의 주제입니다. NIH의 관련 연구 지원금도 2023년 1,600만 달러에서 2024년 2억 7,600만 달러로 폭증했습니다.
의료 분야 파운데이션 모델 등장 �: 2024년에는 범용 다중모드 모델(Med-Gemini)부터 심장초음파(EchoCLIP), 안과(VisionFM), 방사선과(ChexAgent) 등 특정 분야 전문 모델까지 다양한 의료용 파운데이션 모델이 출시되었습니다.
AI 기술의 급속한 발전과 사회적 영향력 확대에 따라, 각국 정부와 국제기구의 정책적 대응과 거버넌스 구축 노력이 활발해지고 있습니다.
미국 주(州) 정부의 AI 입법 주도: 미국 연방 차원의 AI 관련 법률 제정은 더딘 반면, 주 정부 차원의 입법 활동은 매우 활발합니다. 2016년 단 1건에 불과했던 주(州) 통과 AI 관련 법률은 2023년 49건, 2024년에는 131건으로 급증했습니다. 캘리포니아(총 42건), 메릴랜드(17건), 버지니아(17건), 유타(17건) 등이 주도하고 있습니다.
각국 정부의 대규모 AI 인프라 투자 �: AI 기술 경쟁력을 확보하기 위한 각국 정부의 투자가 본격화되고 있습니다. 캐나다(24억 달러), 중국(475억 달러 반도체 펀드), 프랑스(1,090억 유로 약속), 인도(12.5억 달러), 사우디아라비아(1,000억 달러 'Project Transcendence') 등 대규모 투자 계획이 발표되었습니다.
전 세계 입법 과정에서의 AI 언급 급증 �: 조사 대상 75개 주요 국가의 입법 회의록에서 '인공지능' 언급 횟수가 2024년에 1,889건으로, 2023년(1,557건) 대비 21.3% 증가했습니다. 이는 2016년 이후 9배 이상 증가한 수치로, AI에 대한 정치적 관심이 전 세계적으로 높아지고 있음을 보여줍니다. 스페인, 영국, 아일랜드 등에서 특히 언급 빈도가 높았습니다.
AI 안전 연구소(Safety Institute) 확산 및 국제 협력 강화 �: AI 기술의 안전성 확보를 위한 전문 연구기관 설립이 전 세계적인 추세가 되고 있습니다. 2023년 말 미국과 영국에서 시작된 AI 안전 연구소는 2024년 서울 AI 정상회의를 계기로 일본, 프랑스, 독일, 이탈리아, 싱가포르, 한국, 호주, 캐나다, EU 등으로 확산되었습니다. 이들 연구소 간의 국제 협력 네트워크도 구축되어 글로벌 표준 마련 및 위험 공동 대응 노력이 강화되고 있습니다.
미국 연방 규제 급증 �: 2024년 미국 연방 기관들이 제정한 AI 관련 규정은 59건으로, 2023년 25건 대비 두 배 이상 증가했습니다. 규정을 제정한 기관 수도 2023년 21개에서 2024년 42개로 두 배 늘어나, AI 규제 범위가 연방 정부 전반으로 확대되고 있음을 시사합니다.
미국 주(州) 정부의 딥페이크 규제 강화 �: 선거 및 사생활 침해에 악용될 수 있는 딥페이크 기술에 대한 규제가 미국 주 정부 차원에서 빠르게 확산되고 있습니다. 2024년 이전에 5개 주에 불과했던 선거 관련 딥페이크 규제 법률이 2024년 한 해에만 15개 주에서 추가로 제정되었습니다. 개인의 사적인 이미지 관련 딥페이크 규제는 24개 주에서 시행 중입니다.
AI 시대를 대비하기 위한 교육 시스템의 변화는 필수적이며, 이는 K-12부터 고등교육까지 전 단계에 걸쳐 영향을 미치고 있습니다.
K-12 CS 및 AI 교육 현황 �: 미국: 고등학교의 기초 컴퓨터 과학(CS) 개설 비율은 60%까지 증가했지만, 인종, 소득, 지역(도시/농촌), 학교 규모 등에 따른 접근성 격차는 여전히 존재합니다. AP CS 과목 참여 학생 수는 증가했지만, 인종/성별 불균형은 여전합니다. CS 교사 대다수(81%)가 AI 교육의 필요성에 공감하지만, 실제로 AI를 가르칠 준비가 되었다고 느끼는 비율은 절반 미만입니다(고등학교 46%). 글로벌: 전 세계 국가의 약 2/3가 K-12 CS 교육을 제공하거나 계획 중이며, 이는 2019년 대비 두 배 증가한 수치입니다. 특히 아프리카와 라틴 아메리카 국가들의 진전이 두드러졌으나, 아프리카는 전력 부족 등 기본적인 인프라 문제로 접근성이 가장 낮습니다. 명시적인 AI 교육과정보다는 AI 활용 가이드라인 제정에 더 집중하는 경향이 있습니다.
고등 교육 CS 및 AI 교육 동향 �: 미국: 지난 10년간 CS 학사 학위 졸업생은 22% 증가했습니다. AI에 대한 관심 증가는 석사 학위 과정에서 두드러지게 나타나, 2023년 AI 전공 석사 졸업생 수가 2022년 대비 거의 두 배 증가했습니다. 하지만 CS 분야 전반에서 여성 및 특정 인종(흑인, 히스패닉 등) 학생의 과소 대표 문제는 여전합니다. 또한, 미국 CS 석/박사 과정 졸업생의 상당수(석사 67%, 박사 60%)가 유학생이며, 특히 인도와 중국 출신이 많습니다. 글로벌 (ICT 기준): 미국은 정보통신기술(ICT) 분야 모든 학위 수준에서 가장 많은 졸업생을 배출하고 있습니다. 스페인, 브라질, 영국 등이 그 뒤를 따르며, 터키는 성별 균형 측면에서 우수한 모습을 보입니다.
과제 및 전망 �: AI 교육 접근성 및 참여에서의 형평성 문제가 시급히 해결되어야 합니다. 교사들의 AI 역량 강화 및 교육 자료 개발이 중요합니다. 글로벌 표준 데이터 수집 및 공유 체계 마련이 필요합니다. AI 기술 활용 능력뿐만 아니라 윤리적, 비판적 사고 능력을 함양하는 교육이 강조되어야 합니다.
AI 기술에 대한 대중의 인식과 태도는 기술 수용성, 사회적 영향, 정책 방향 설정에 중요한 영향을 미칩니다.
글로벌 AI 낙관론 소폭 상승, 그러나 신중론 여전 ��: Ipsos 조사 결과, AI 제품/서비스가 단점보다 장점이 많다고 보는 글로벌 응답 비율이 2022년 52%에서 2024년 55%로 소폭 상승했습니다. 일상생활에 AI가 큰 영향을 미칠 것이라는 기대감도 증가했습니다 (향후 3-5년 내 영향 예상: 60% → 66%).
AI 기업 윤리 및 공정성에 대한 회의론 증가 �: AI 기업이 개인 데이터를 보호할 것이라는 신뢰도는 2023년 50%에서 2024년 47%로 하락했습니다. AI 시스템이 편향되지 않고 공정할 것이라는 믿음 역시 감소했습니다.
지역별 AI 인식 격차 지속 �: 아시아(중국 83%, 인도네시아 80%) 및 일부 개발도상국에서는 AI에 대한 낙관론이 매우 높은 반면, 북미(캐나다 40%, 미국 39%) 및 유럽(네덜란드 36%, 프랑스 41%) 등 서구권에서는 여전히 회의적인 시각이 우세합니다. 흥미로운 점은, 과거 가장 회의적이었던 국가들(독일 +10%p, 프랑스 +10%p, 캐나다 +8%p, 영국 +8%)에서 AI 낙관론이 가장 크게 증가했다는 것입니다.
AI와 일자리 전망 �: 글로벌 응답자의 60%가 향후 5년 내 AI가 자신의 업무 방식을 변화시킬 것으로 예상합니다. 하지만 자신의 일자리를 AI가 대체할 것이라고 믿는 비율은 36%로 상대적으로 낮았습니다. 이는 AI가 일자리를 완전히 대체하기보다는 업무 방식을 보조하거나 변화시킬 것으로 보는 시각이 우세함을 시사합니다.
AI 영향력 인식: 시간 절약/오락 vs. 경제/건강 ⏱️�: AI가 시간을 절약해 줄 것(55%)이라거나 더 나은 엔터테인먼트 옵션(51%)을 제공할 것이라는 기대는 높은 편입니다. 그러나 국가 경제 개선(36%), 고용 시장 긍정적 영향(31%), 건강 증진(38%) 등 거시적 또는 개인 건강 관련 혜택에 대한 기대는 상대적으로 낮았습니다.
자율주행차에 대한 불신 여전 (미국) ��: AAA 조사 결과, 미국인의 61%가 자율주행차를 두려워하며, 신뢰한다는 응답은 13%에 불과했습니다. 2023년(68%)보다는 두려움이 다소 감소했지만, 여전히 높은 수준입니다.
AI 규제에 대한 광범위한 지지 (미국 지방 정책가) �️✅: 미국 지방 정책 입안자(타운십, 시, 카운티 수준)들의 AI 규제 지지율은 2022년 55.7%에서 2023년 73.7%로 크게 증가했습니다. 특히 데이터 프라이버시 강화(80.4%), 실업자 재교육(76.2%), AI 배포 규정(72.5%) 등에 대한 지지가 높았습니다.
Stanford AI Index Report 2025는 AI 기술이 경이로운 속도로 발전하며 경제, 사회, 과학, 정책 등 모든 영역에 걸쳐 근본적인 변화를 가속화하고 있음을 보여줍니다. 특히 기술 성능 향상, 투자 급증, 기업 도입 확대는 AI의 주류화가 거스를 수 없는 흐름임을 증명합니다. 그러나 동시에 규제 환경의 복잡성 증가, 책임 및 윤리 문제 심화, 데이터 접근성 제약, 인력 양성 과제 등 해결해야 할 난제들도 산적해 있습니다. AI 시대를 성공적으로 맞이하기 위해서는 기술 발전과 더불어 책임감 있는 거버넌스 구축, 교육 혁신, 사회적 합의 형성을 위한 노력이 그 어느 때보다 중요합니다.