OpenAI 의 공동창업자 일리야 수츠케버와 AGI 시대에 대한 고찰
2024년 6월 19일, OpenAI의 공동 창립자이자 수석 과학자였던 Ilya Sutskever가 "Safe Superintelligence Inc." 라는 새로운 회사를 설립했습니다. 저는 항상 일리야 수츠케버 의 업적에 대해 감탄해 왔고 향후 행보에 관심이 많았습니다. 그래서 이번 기회에 그의 발언들을 다시한번 살펴보면서 다가올 AGI 시대에 대해 생각해 보았습니다.
샘 알트먼 OpenAI CEO 가 2023. 11. 17 OpenAI 이사회의 결정을 통해 축출 된 사건이 있었습니다. 당시 이사회 멤버이자 샘 알트먼과 함께 OpenAI 공동 창업자 였던 일리야 수츠케버는 이 사건의 주동자로서 대중에게 알려지게 되었습니다. 하지만 그 이전에도 이미 업계에서는 ‘레전드’ 연구원으로서 수많은 사람들 (우리 세대 가장 위대한 지성이라고 말한 샘 알트먼을 포함해서) 에게 인정 받던 분이었어요. 간단히 일리야에 대한 이력을 읊어볼게요.
1. 토론토 대학 딥러닝의 아버지라고 불리우는 “Geoffrey Hinton” 연구실에서 AlexNet 연구 발표 - 이 연구로 인해 딥러닝 시대가 열림
2. Google DeepMind 의 AlphaGo 논문 공동 저자 (당시 유일하게 딥마인드 소속이 아닌 연구원)
3. OpenAI 공동 창립자 - OpenAI 는 일론 머스크와 샘 알트먼이 당시 구글 소속이었던 일리야를 따로 불러내 창업하자고 설득하면서 시작된 회사
4. 이후 OpenAI 에서 GPT1, GPT2, GPT3 모델 설계 및 개발 참여
일리야의 커리어는 현시대 인공지능 발전의 중심에 있다고 해도 과언이 아닌데요. 그렇기에 엔비디아의 젠슨황이 Nvidia GTC 컨퍼런스에 초대해 1:1 대담 영상 을 공유하면서 그의 공헌에 대한 감사함을 표하기도 했어요. 엔비디아가 지금 이 순간 세계 최고의 회사가 될 수 있던 이유는 AlexNet 에서 NVIDIA GTX 580 을 도입 했던 것이 시작이라고 해도 과언이 아니니까요.
OpenAI 일리야 수츠케버와 Nvidia 젠슨황의 인터뷰
젠슨 황과의 인터뷰에서 일리야 수츠케버는 흥미로운 인사이트를 많이 공유해 주었는데요. 그 중 제게 가장 인상적이었던 것은 이것. 단지 다음 단어 (Next Word) 를 예측하는 것이 왜 지능이 되는가? 에 대해 설명하는 부분이었어요.
혹자는 LLM (거대 언어 모델) 기반 인공지능이 결국 다음 단어를 맞추는 것인데 그게 어떻게 AGI가 될 수 있냐고 비판하기도 합니다. 여기에 대해 일리야는 분명 LLM 이 단순하게도 볼 수 있는 다음 단어 맞추기가 맞다고 이야기하는데요. 그런데 다음 단어 맞추기의 의미가 무엇인지 생각해 봐야 한다고 이야기 합니다. 그리고 추리 소설 거의 마지막 부분까지 모든 단어를 넣고 등장인물 들이 모두 모인 가운데 주인공이 “범인은 바로 ___.” 라는 부분에서 빈칸에 들어갈 다음 단어를 예측한다면, 이 인공지능이 다음 단어를 맞추는 능력은 어떤 의미로 봐야 할 것인가 물어봅니다. 사실상 소설 속 세상에 대한 이해력이 생겼다고 봐야 한다는 것이죠.
일리야는 GPT 모델을 만들고 발전시키는 과정을 주도하면서 GPT 모델이 단순히 “스케일” 을 키우는 것만으로도 성능이 좋아 질 수 있다는 것을 처음 발견했을 때 스스로도 굉장히 놀라웠다고 합니다. 처음 딥러닝을 시작할 때에는 수백만 수준의 파라미터 사이즈 (*현재는 조단위) 도 상상하기 어려웠었기에 지금과 같은 스케일은 시도 할 생각도 못했는데, 어느 순간 여러가지 제약 요소들이 동시에 풀리면서 시도가 가능해졌고 또 그러한 시도를 해보니 작동 했을 때 가장 놀라운 순간이었다고 말이죠.
그리고 지속적으로 스케일을 키워가는 과정을 겪으면서 계속 부딪히는 물리적 / 현실적인 난관들을 충분히 고려해도 이 발전 속도는 지수적인 발전의 초기로 예측했어요. 그러므로 앞으로 발전 속도를 고려하면 향후 AGI (인공 일반 지능) 에 도달하는 것은 거의 필연적이라고 말이죠. 그리고 그 시기를 10년은 넘기지 않을 것이라고 조심스럽게 이야기 합니다. 현재 OpenAI 혹은 Anthropic 등 이 분야를 리딩하는 주요 인사들은 AGI 가 몇 년 내 올 것이라고 확신하는 발언을 자주 하고 있어요.
물론 여기서 AGI (인공 일반 지능) 에 대한 기준을 명확히 할 필요가 있는데요. 이 언어는 과학용어가 아니고 개념적으로 쓰이기 때문에 사람들 사이에 의견이 조금씩 다르거든요. 일리야 수츠케버는 “인간이 수행할 수 있는 모든 인지적 작업을 수행할 수 있는 수준에 도달한 인공지능” 을 기준으로 보고 있어요. 현재 상당 수의 직업이 인공지능으로 대체 될 수 있다는 의견 역시 인공지능의 수준이 몇년 안에 AGI 에 도달한다는 것을 근거로 합니다.
수츠케버는 2023년 10월 MIT Technology Review 와의 인터뷰에서 다음과 같이 이야기 했어요.
“AGI는 생각보다 빨리 올 것 입니다.
그리고 이전과는 완전히 다른 미래가 펼쳐지는 분기점이 될 것 입니다.“
불과 1~2년 전 만해도 이러한 말은 공상 과학이나 SF 영화에서나 나올 만한 허황된 이야기로 치부 되는 분위기였죠. 하지만 최근 들어 지속적으로 인공지능 성능이 좋아지는 것을 목격한 많은 사람들이 그 가능성을 믿기 시작하고 있어요.
저 역시 인간이 수행하던 지식 노동 활동의 상당수가 인공지능을 통해 효율화 되면서 인간이 직접 하지 않게 될 수 있다고 생각합니다. 특히 요즘에는 현실화가 멀지 않았다고도 느껴지구요. 왜냐하면 최근 나온 모델인 GPT-4o 혹은 Claude 3.5 만 사용해보아도 충분한 상황 정보와 요구사항들을 명확히 제공하면 생각보다 훨씬 많은 범위에서 유용한 응답을 하는 것을 느낄 수 있었어요. 과거에는 분명 잘 대답하는 경우도 많지만 특정 범위를 벗어나면 확 답변의 수준이 떨어지거나, 아예 잘못된 응답을 했었는데 최근에는 확실하게 유용하게 쓸 수 있는 범위가 넓어졌어요.
만약에 이러한 인공지능에 자동화된 방식으로 정보를 주입할 수 있고, 그와 동시에 일정 수준의 실행 권한을 가지게 된다면 어떻게 될까요? 현재는 이러한 시도를 해보면 연속적인 과정 사이에 건널 수 없는 강이 발견될 때 가 많아요. 하지만 그 강도 용도에 따라 건널 수 있게 되는 경우가 점점 많아 질 것 같습니다. 그리고 그렇게 되면 그런 분야에서는 바로 사람을 대체할 수 있게 되겠죠.
최근 OpenAI GPT-4o 를 적용한 Mac 앱으로 컴퓨터 화면에 대한 이해 능력만 보더라도 이제 컴퓨터 제어권을 주고 자동화 하면 스스로 성과를 낼 수 있는 작업이 있을 것 같아요. 실제로 이와 유사한 솔루션이나 프로그램, 연구들이 최근 가장 핫한 인공지능 연관 기술로 발전하고 있기도 하구요. 심지어 공식적으로 성과가 보고된 것은 아니지만 바이오 분야 에서는 유사한 접근이 실용적으로 시도되고 있는 것 같아요.
기술의 최첨단에서 이런 상황을 지켜보고 있게 될 때, 앞으로 수많은 직업이 인공지능으로 대체된다고 하는 것 과연 공상과학으로만 치부 될 수 있을까요?
2023년 수츠케버의 관심사는 점차 인공지능 모델의 성능 향상과 프로덕트의 개발 보다는 빠르게 발전하는 인공지능을 어떻게 통제하는 것이 좋을지로 넘어갔어요. 물론 이 과정에서 핵심인 정렬 (Alignment) 분야는 모델을 통제하는 과정이지만 동시에 성능을 좋게 하는 데 필수적인 기술 입니다.
그리고 사람보다 더 똑똑한 인공지능이 가능 하다면 인공지능 정렬 (Alignment) 과정에서 핵심적인 역할을 현재는 사람이 하고 있다는 점을 한계로 지적했구요. 주로 이러한 문제점으로 정렬 과정 자체도 다른 인공지능을 활용하는 방안 등 다양한 방법들이 논의 되고 있어요. 그리고 이러한 연구 개발 팀을 강화하면서 2023년 7월 OpenAI 에서는 일리야 수츠케버가 중심이 된 ‘Superalignment’ 팀 을 발족한다고 발표했구요.
일리야는 Superintelligence (초지능, 이 때 부터 일리야는 AGI 용어에 대한 기준이 서로 다른 것에 대한 부담 때문에 Superintelligence 라는 표현을 더 사용하기 시작) 의 출현을 대비하기 위한 정렬 (Alignment) 과정 연구에 집중하기 시작했어요. 이후 일리야는 여러 인터뷰에서 AGI 개발과 이후 AI 의 통제권을 확실하게 인간이 하는 데 있어 이 정렬 분야의 중요성을 여러 채널로 강조하고 있어요. 분명 AI 의 발전에 따라 인류에게 위협적인 모델도 나타날 수 있으며, 이를 해결하기 위해서는 기술적인 부분 만큼이나 윤리적인 책임이 중요하다고 했어요. 물론 일리야가 AI의 발전을 부정적으로 보는 것은 아니고, 잘 정렬된 AGI 를 통해 인류가 정말 큰 혜택을 받을 수 있다고 보고 있습니다.
이 Superintelligence 를 위한 Alignment 에 집중하던 일리야는 Superalignment 팀을 만든지 딱 1년 정도 된 시점에 결국 OpenAI 에서 퇴사하게 되었는데요. 그럼에도 이 분야의 중요성에 대해 확신하기에 계속 이 연구를 집중하기 위한 목적으로 2024. 06. 19 SSI inc. 를 창업 하게 되었습니다.
그래서 회사의 이름은 "안전한 초지능 회사 (Safe Superintelligence Inc.)"
또한 회사 설립 선언문 첫 문장에서 그의 의지를 다시한번 확인 할 수 있어요.
Building safe superintelligence (SSI) is
the most important technical problem of our time.
안전한 초지능(SSI) 구축은 우리 시대의 가장 중요한 기술적 문제입니다.
오로지 안전한 초지능을 만들겠다는 일리야의 의지는 비즈니스 관점에서 보면 너무 순수 한 것 같아 보이기도 하는데요. 그와 동시에 저는 약간의 기시감도 느껴졌어요.
왜냐하면 OpenAI 초기 설립 과정에서 선언된 미션은 “AGI가 모든 인류에게 이익이 되도록 하는 것“ 이며 이를 달성하기 위해 OpenAI 는 비영리 단체 구조를 고집했는데 이 모두가 새로 설립한 SSI 의 비전과 거의 일치한다고 볼 수 있거든요.
그래서 일리야 수츠케버는 OpenAI 를 창업하고 지금은 오히려 OpenAI 에서 나왔지만, 누구보다 더 OpenAI 의 초기 설립 정신을 최선을 다해 유지하고자 노력하고 있는 과학자 임이 분명합니다.
일리야 수츠케버의 Superintelligence 에 대한 비전과 AGI 시대에 대한 확고한 믿음은 지금 인공지능이 세상을 바꾸어 나가고 있는 시대에 시사하는 바가 적지 않습니다. 또한 다가오는 AGI 시대가 어떤 모습이 될지에 대해서도 수많은 생각을 할 수 있는 계기가 되었어요.
AGI 가 등장함에 따른 사회적 변화는 19세기 말 농업 인구 비율이 80~90% 였던 우리나라가 현재 5% 미만으로 떨어진 것과 같은 사회 구조적 변화가 전세계적으로, 그것도 더 빠른 시간 안에 일어나지 않을까? 하는 생각도 드는데요.
아무쪼록 저는 모두가 인공지능으로 혜택을 누릴 수 있는 사회가 되었으면 좋겠습니다.
마지막으로 이 글을 읽고 #일리야 수츠케버, #OpenAI, #AGI 와 같은 인공지능 주제에 대한 정보를 받아 보고 싶으시다면 스닙팟을 이용 해주세요!