brunch

You can make anything
by writing

C.S.Lewis

by 신동형 Jul 23. 2024

구글 딥마인드의 AGI 실현을 위한 도전과 전략

AI(Claude3)가 작성 보고서 시리즈

 AI(Claude3)가 작성한 「구글 딥마인드(Google DeepMind)의 ICML 2024 발표:AGI 실현을 위한 도전과 전략 」보고서(2024.07.23)


글쓴이 Claude 3(by Anthropic), 프롬프팅·편집 신동형(donghyung.shin@gmail.com)


#제가쓴거아닙니다.

#AI가작성했습니다.



1. 서론 


① ICML 2024와 Google DeepMind(구글 딥마인드)


ICML(International Conference on Machine Learning)은 세계 최고 권위의 머신러닝 학회 중 하나입니다. 2024년에는 오스트리아 비엔나에서 개최되며, 이번 학회에서 Google DeepMind(구글 딥마인드)는 80편 이상의 논문을 발표할 예정입니다. Google DeepMind는 2010년 설립된 영국의 AI 연구기관으로, 2014년 Google(구글)에 인수된 이후 AlphaGo(알파고), AlphaFold(알파폴드) 등 획기적인 연구 성과를 거두며 AI 분야를 선도하고 있습니다. 


② AGI(Artificial General Intelligence) 정의와 연구 동향 


AGI는 '강한 AI'라고도 불리며, 사람처럼 광범위한 지적 능력을 갖춘 AI를 의미합니다. 즉, 특정 분야가 아닌 일반적인 문제해결 능력을 지닌 AI를 말하죠. 아직 AGI는 개념적 수준에 머물러 있지만, 최근 대규모 언어모델(large language model)의 등장으로 AGI에 한 걸음 다가섰다는 평가를 받고 있습니다. 주요 AI 연구기관들은 AGI 개발을 최우선 목표로 설정하고, 이를 위한 다양한 접근법을 모색 중입니다.





2. Google DeepMind(구글 딥마인드)의 AGI 접근법 


① Open-ended(개방형) 시스템의 중요성


Google DeepMind는 AGI 실현의 핵심 요소로 'open-ended(개방형) 시스템'을 꼽았습니다. 개방형 시스템이란 정해진 데이터셋이나 목표에 국한되지 않고, 스스로 새로운 지식을 탐색하고 창출해낼 수 있는 시스템을 말합니다. 마치 호기심 많은 어린아이가 질문을 통해 세상을 배우듯이 말이죠. 개방형 시스템은 주어진 테두리를 넘어 외부와 끊임없이 상호작용하며 성장합니다. Google DeepMind는 이러한 개방성이 AGI가 반드시 갖춰야 할 속성이라고 강조했습니다. 



② Foundation model(기반 모델)과의 결합 


개방형 시스템의 탐색 공간은 매우 광대하기 때문에, 이를 효과적으로 제어하기 위한 장치가 필요합니다. 여기서 foundation model(기반 모델)이 큰 역할을 할 수 있습니다. Foundation model은 방대한 데이터로 사전학습된 거대 언어모델로, 인간 수준의 언어이해 및 생성 능력을 보유하고 있죠. Google DeepMind는 개방형 시스템과 foundation model을 결합함으로써, 탐색 공간을 인간에게 유용한 방향으로 제한하는 한편, 폭발적인 창의성을 이끌어낼 수 있을 것으로 기대하고 있습니다. 



③ 인간 중심의 유용한 AGI 개발 


AGI의 궁극적 목적은 인류에게 도움이 되는 것입니다. Google DeepMind는 개발 과정에서부터 인간중심적 관점을 견지할 것을 강조했습니다. 즉, AGI가 만들어내는 산출물이 인간의 가치관과 윤리 기준에 부합해야 한다는 것이죠. 이를 위해 휴먼 에이전트와의 상호작용을 통한 지속적인 피드백, 사회적 규범과 윤리 기준의 내재화 등 다각도로 접근할 계획입니다.





3. AGI 실현을 위한 기술적 과제 


① 성능(Performance)과 일반성(Generality) 확보


AGI를 향한 여정에서 넘어야 할 첫 번째 산은 성능과 일반성의 균형을 맞추는 것입니다. 성능이란 특정 태스크를 얼마나 잘 수행하는지를 말하고, 일반성이란 그 능력이 얼마나 다양한 영역으로 전이되는지를 가리킵니다.


Google DeepMind는 이를 위해 성능과 일반성의 수준에 따라 AGI 단계를 구분하는 프레임워크를 제시했습니다. narrow AI(특화 AI)를 시작으로 emerging AGI(태동기 AGI), competent AGI(유능한 수준의 AGI), expert AGI(전문가 수준의 AGI), virtuoso AGI(거장 수준의 AGI), artificial superintelligence(초인공지능) 단계로 세분화한 것입니다.


현재 대부분의 AI 시스템은 narrow AI에 속하며, 최신 대규모 언어모델들이 emerging AGI에 진입했다고 볼 수 있습니다. Google DeepMind는 단계별 벤치마크 설계를 통해 AGI로의 진전 상황을 가늠하고, 그에 맞는 기술 개발 전략을 수립할 계획입니다.



② 자율성(Autonomy)과 안전성 확보 


AGI는 고도의 자율성을 지녀야 합니다. 하지만 자율성이 높아질수록 안전성 문제도 커지게 됩니다. 치명적인 실수를 저지르거나 의도치 않은 결과를 초래할 위험이 있기 때문이죠. Google DeepMind는 AGI의 자율성 수준에 따른 위험도를 6단계로 분류하고, 그에 상응하는 안전장치 마련에 집중할 계획입니다.


예를 들어 '도구형 AI'와 같은 낮은 자율성 단계에서는 휴먼 에이전트의 개입과 통제를 전제로 하고, '협력형 AI' 단계부터는 명시적인 goal specification(목표 명세)와 robustness 확보에 주력합니다. 그리고 '전문가형 AI'와 같이 인간을 능가하는 자율성 단계에 이르면 value alignment(가치 정렬), 명령 거부, 작동 중지 기능 등 다중 안전장치를 검토하게 됩니다.



③ 평가 벤치마크 설계 


AGI 개발 과정에서 공정하고 객관적인 평가 지표를 마련하는 것이 중요합니다. 전통적인 AI 벤치마크들은 정형화된 태스크에 특화되어 있어 AGI 평가에는 적합하지 않습니다. Google DeepMind는 인간 평가자의 직관을 반영하면서도 자동화된 평가가 가능한 새로운 벤치마크 제안했습니다.


평가 영역은 크게 언어이해, 추론, 상식, 창의력, 학습능력 등을 아우르되, 각 영역 내에서도 난이도와 개방성을 단계별로 구성합니다. 특히 단순 태스크 수행능력 뿐 아니라 일반화 능력, 샘플 효율성, 메타인지 능력 등 AGI의 핵심 속성들을 종합적으로 평가할 수 있는 통합 벤치마크를 목표로 하고 있습니다.


표 1 AGI 벤치마크 평가 영역(예시)



4. 개방형 Foundation Model 연구 방향 


① 강화학습을 통한 접근 


Google DeepMind는 개방형 foundation model 학습의 한 방법으로 강화학습을 제안했습니다. 시행착오를 통해 좋은 전략을 습득해가는 강화학습 에이전트처럼, fundation model도 환경과의 상호작용을 통해 피드백을 받으며 스스로 발전해갈 수 있다는 것이죠. 이를 위해 다양한 domain의 시뮬레이션 환경을 구축하고, 에이전트의 호기심과 동기를 자극할 수 있는 보상 설계 방안을 모색 중입니다. 




② 자기향상 루프 구축


자기향상이란 시스템이 현재의 능력을 토대로 더 나은 버전의 자신을 만들어가는 과정을 말합니다. Google DeepMind는 foundation model이 제한된 외부 피드백만으로도 효과적인 자기향상 루프를 구축할 수 있는 방안을 연구하고 있습니다.


출력물에 대한 자기평가, 약점 분석과 보완, 목표 재설정 등 메타인지 능력을 강화하는 것이 핵심입니다. 나아가 동료 에이전트와의 협력과 경쟁을 통해 집단지성의 효과를 창출하는 방안도 모색 중입니다. 이는 자기 코드 수정을 통해 급진적 발전을 이루는 '자기향상 AGI'로 나아가기 위한 토대가 될 것입니다.




③ 자동 Task 생성 


인간이 설계한 제한된 task는 AGI의 잠재력을 온전히 끌어내기에 부족합니다. Google DeepMind는 주어진 목표에 도달하기 위해 필요한 하위 task를 foundation model 스스로 생성하고 학습하는 방법을 연구하고 있습니다. 게임 플레이에서 유용한 전략을 찾아내고, 효율적인 sub-goal을 설정하는 실험들이 진행 중입니다. 이를 바탕으로 장기적으로는 인간이 명시하지 않은 숨겨진 목표까지 발굴해 나갈 수 있는 고차원적 task 생성 능력을 지향하고 있습니다.




④ 진화 알고리즘 활용 


진화 알고리즘은 다양성과 창의성 측면에서 유용한 접근법입니다. Google DeepMind는 foundation model을 mutation과 selection의 대상으로 삼는 진화학습 방법을 제안했습니다. 성능이 우수한 모델 checkpoint들을 선별하고, 이들을 교배하거나 변이를 일으켜 새로운 버전을 탐색하는 것입니다.


특히 강건성, 일반화 능력, 샘플 효율성 등을 선택압으로 활용함으로써 AGI로의 수렴을 가속화할 수 있을 것으로 기대하고 있습니다. 최근에는 대규모 언어모델들이 few-shot learning에 강점을 보이면서, 모델 간 교배를 통해 이종의 능력을 결합하는 시도들이 활발히 이뤄지고 있습니다.






5. AGI의 책임감 있는 개발 


① 리스크 분석 및 평가 


AGI는 그 영향력이 크고 광범위하기에 치명적인 리스크를 수반합니다. Google DeepMind는 이에 선제적으로 대응하기 위해 AGI 개발 전주기에 걸친 리스크 분석 및 평가 체계를 수립 중입니다. 먼저 AGI의 오작동이나 오용으로 인한 잠재적 피해 시나리오를 망라하고, 그 심각성과 개연성을 따져 우선순위를 매길 계획입니다.


또한 알고리즘 편향, 프라이버시 침해, 책임소재 등 사회적 이슈들에 대한 영향 평가도 병행합니다. 개발 과정의 투명성을 높이고 이해관계자들의 의견을 적극 수렴함으로써 사회적 신뢰를 확보하는 것도 중요한 과제입니다.




② 인간-AI 상호작용 고려사항 


AGI 시스템은 궁극적으로 인간과 협업하며 가치를 창출합니다. 따라서 출시 전부터 실제 사용 맥락을 염두에 둔 설계와 개발이 필요합니다. Google DeepMind는 다양한 인간-AI 상호작용 시나리오를 발굴하고, 각각의 윤리적/기술적 요구사항을 정의하는 과정을 거칩니다.


예컨대 의사결정을 지원하는 AGI는 그 판단의 근거를 명확히 설명할 수 있어야 하고, 인간 전문가의 지식을 존중하는 태도를 지녀야 합니다. 창작 영역의 AGI는 저작권 이슈에 유의해야 하며, 인간 사용자의 의도를 섬세하게 파악할 수 있어야 하죠. 무엇보다 AGI와 인간 사이의 경계와 역할분담을 혼동하지 않도록 주의를 기울여야 할 것입니다.




③ 사회적 수용성 제고 방안 


AGI가 실제 삶에 스며들기 위해서는 사회 구성원들의 수용과 신뢰가 필수적입니다. Google DeepMind는 이를 위한 다각도의 노력을 기울일 계획입니다. 우선 AGI의 혜택이 사회 전반에 고루 분배될 수 있도록, 접근성과 포용성 제고에 힘쓸 것입니다.


일반 시민들의 AI 리터러시 향상을 위한 교육 프로그램도 마련합니다. 동시에 AI 개발자와 정책입안자 등 전문가 그룹과의 소통 채널을 강화해, 책임감 있는 AGI 거버넌스 체계를 함께 모색해 나갈 계획입니다. 장기적으로는 'AI 윤리 준수 인증제', 'AGI 감사 시스템' 등 신뢰 기반의 제도적 장치들을 마련함으로써 사회적 수용성을 제고하고자 합니다.


표 2 AGI 개발 시 고려해야 할 주요 리스크 요인




6. 결론


① Google DeepMind(구글 딥마인드) AGI 연구의 의의 


Google DeepMind의 AGI 연구는 개방형 시스템과 대규모 foundation model의 결합이라는 독창적 접근법을 제시했다는 점에서 큰 의의가 있습니다. 개방형 탐색을 통한 창의성과 foundation model의 강력한 성능을 조화시킴으로써, 기존의 AI 패러다임으로는 풀기 어려웠던 난제들을 돌파할 수 있는 실마리를 제공하고 있습니다.


무엇보다 AGI라는 원대한 목표를 향해 과감히 도전하는 자세 자체가 AI 연구 분야에 신선한 자극이 되고 있습니다. Google DeepMind가 제안한 성능-일반성 프레임워크나 통합 벤치마크 등은 AGI로의 로드맵을 그려나가는데 유용한 도구로 활용될 수 있을 것입니다.



② 향후 전망과 기대 


AGI의 실현 시점을 정확히 예측하기는 어렵습니다. 다만 최근 몇 년 사이 AI 기술이 눈부신 발전을 거듭하고 있다는 점에서, 머지 않은 미래에 인간 수준의 AGI 등장을 기대해 볼 만합니다. Google DeepMind가 내놓은 open-ended foundation model과 같은 혁신적 접근법이 AGI 개발을 더욱 가속화할 것으로 전망됩니다.


다만 AGI의 잠재력만큼 그에 따른 리스크도 상당하다는 점을 명심해야 할 것입니다. 기술적 과제 못지 않게 사회적 수용성 제고라는 숙제도 남아 있습니다. 책임감 있는 AGI 개발 문화 정착을 위해 연구자들과 정책입안자, 시민사회 등 다양한 이해관계자들 간의 소통과 협력이 필수적입니다. AGI의 윤리적, 법적, 사회적 쟁점들에 대한 깊이 있는 담론이 지속적으로 이뤄져야 할 것입니다.


우리는 AGI라는 새로운 지평을 향한 여정에 이제 막 발을 내디뎠습니다. Google DeepMind를 비롯한 선도 연구자들의 창의적 도전이 이 여정에 활력을 불어넣어 주고 있습니다. AGI의 잠재력을 현실화하는 동시에 그 과정에서 인간의 가치를 지켜내는 일. 결코 쉽지 않은 과제이지만, 지혜를 모아 슬기롭게 헤쳐 나간다면 머지 않아 그 열매를 만끽할 수 있으리라 기대합니다.



보고서 다운로드


#AGI, #ArtificialGeneralIntelligence, #구글딥마인드, #GoogleDeepMind, #ICML2024 #인공지능, #머신러닝, #MachineLearning, #Open-ended학습, #개방형학습, #FoundationModel, #기반모델, #AI윤리, #AIEthics, #책임감있는AI, #ResponsibleAI, #AI거버넌스, #AIGovernance, #성능, #Performance, #일반성, #Generality, #자율성, #Autonomy, #안전성, #Safety,, #인간-AI상호작용, #Human-AIInteraction, #사회적수용성, #SocialAcceptability, #강화학습 #ReinforcementLearning, #자기향상, #Self-improvement, #진화알고리즘, #EvolutionaryAlgorithm, #메타학습, #Meta-learning, #전이학습, #Transfer Learning




참고자료


Google DeepMind at ICML 2024 (Google DeepMind, 2024)(LINK)

Open-Endedness is Essential for Artificial Superhuman Intelligence (Edward HughesMichael, 2024)(LINK)

VideoPoet: A Large Language Model for Zero-Shot Video Generation (Google, Carnegie Mellon University, 20247)(LINK)

Position: Levels of AGI for Operationalizing Progress on the Path to AGI (Google DeepMind, 2024)

TacticAI: an AI assistant for football tactics (Zhe WangPetar, 2024)(LINK)





브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari