brunch

You can make anything
by writing

C.S.Lewis

by 최재운 Jun 22. 2023

AI로 인한 멸망 가능성에 대한 전문가 조사 결과

세계 최고 인공지능 석학들의 현재 위협 전망

터미네이터, 매트릭스 등 90년대 나온 영화들에 나온 기계와 인간의 대결을 이제 더 이상 공상의 영역이 아닌 곧 다가올 현실로 생각하는 사람들이 늘고 있다. 2016년 알파고(AlphaGo)가 인간계 바둑 최고봉인 이세돌 9단을 이겼을 때부터 본격화된 인공지능에 대한 두려움은 2023년 대규모 언어 모델(LLM)을 기반으로 하는 챗GPT 등장으로 더욱 가속화되고 있다. 


유명인들의 생성형 인공지능에 대한 생각 (출처 하단 명기)

과거 인공지능에 대한 두려움은 대중들로 인해 촉발된 경우가 많았다. 하지만 최근 양상은 다르다. 챗GPT가 전 세계를 강타한 이후, 지난 3월 수많은 인공지능 전문가들은 "거대한 인공지능 실험(Giant AI experiments)"를 6개월 동안 즉시 중단할 것을 요청하는 공개서한에 서명하였다. 5월에는 다수의 전문가들이 "인공지능으로부터 촉발되는 절멸(extinction from AI)"의 위험을 진지하게 받아들일 것을 촉구하는 성명서를 발표하였다. 인공지능과 인류의 갈등이 SF소설, 영화, 게임 등의 콘텐츠 세상을 넘어 진지하게 논의되고 있음을, 그것도 인공지능 전문가들이 진지하게 우려하고 있음을 알 수 있다. 


이 모든 시작은 OpenAI의 챗GPT가 활용하고 있는 GPT-4와 같은 대규모 언어 모델이다. 대규모 언어 모델은 일상생활의 수준을 넘어 전문적인 영역에서도 인간을 뛰어넘는 퍼포먼스를 보이며, 인간 수준의 지성을 가진 AI, 인공 일반 지능 AGI (Artificial General Intelligence)의 등장 가능성을 예고하고 있다. AGI는 현재의 인공지능, 특정 조건에서만 적용되는 약 인공지능과 달리 모든 상황에 범용적으로 활용할 수 있는 인공지능을 의미한다. 인공지능 연구가들의 궁극적인 목표가 바로 AGI, 강 인공지능(Strong AI)을 만드는 것이고 많은 이들은 AGI가 구현되었을 때 특이점(Singularity)이 발생하여 인류의 삶이 급변할 것이라고 보고 있다. 




인공지능 전문가들 사이에서도 챗GPT의 GPT-4와 같은 모델에 대한 우려를 표하는 사람이 많다. 당장 GPT-4가 문제가 되지 않더라도, 이와 유사한 후속 모델들로 인해 촉발된 문명의 혼란에 대한 우려가 바로 그것이다. GPT-4 등장 이전부터 인공지능의 두려움에 대한 논의를 계속해서 유발한 가장 유명한 사람 중 한 명은 옥스포드대(University of Oxford) 교수인 닉 보스트롬(Nick Bostrom)이다. 그는 2014년 자신의 저서 "Superintelligence: Paths, Dangers, Strategies" 를 통해 인공지능은 궁극적으로 디지털 세계를 벗어나 인류 문명을 파괴할 방법을 찾을 것이라고 주장한 바 있다. 닉 보스트롬의 연구에 영향을 미친 기계지능연구소(MIRI) 설립자 엘리저 유드코프스키(Eliezer Yudkowsky)는 GPT-4가 AGI의 임박한 징후라는 의견을 밝혔다.


반대로 최고 전문가들 중에서 아직 현재의 인공지능 수준은 하찮은 수준이라고 보는 사람들도 많다. MIT의 AI Lab과 CSAIL 장을 역임한 로드니 브룩스(Rodney Brooks)는 아직 우리는 30년 전보다 AGI에 전혀 가까워지지 않았다고 주장한다. 인공지능의 4대 천왕 중 한 명인 얀 르쿤(Yann LeCun) 역시 인공지능이 촉발하는 공상 과학 시나리오를 부정한다. 얀 르큰은 현재의 AI는 개보다도 똑똑하지 않다는 말을 최근 BBC와 인터뷰에서 한 바가 있다. 


이렇게 전문가들 사이에서도 인공지능, 특히 최근의 GPT-4를 바라보는 시선이 극단적으로 갈리는 현시점에서, IEEE Spectrum 에서는 전 세계에서 가장 유명한 인공지능 전문가 22명에게 그들의 신념을 물어보는 설문을 진행하였다. 원문 링크는 아래에 있으며, 본 글은 해당 원문을 발췌하여 나의 생각을 추가로 정리한 것이다. 설문에 참여한 사람은 샘 올트만, 얀 르쿤, 유수아 벤지오, 게리 마커스, 닉 보스트롬, 앤드류 응 등 



주관식 질문 및 전문가들의 주석은 원문에서 확인 바라며, 여기서는 "Yes or No" 질문에 대한 통계를 통해 현 상황을 전문가들이 어떻게 바라보고 있는지 살펴보도록 하겠다. 먼저 IEEE Spectrum이 질문하고 있는 내용은 다음과 같다.


1. GPT-4와 같은 오늘날의 다른 대형 언어 모델의 성공은 AGI의 가능성이 높다는 신호인가요?
2. 우리가 아무것도 하지 않으면 AGI가 문명 재앙을 일으킬 가능성이 있나요?


이에 대한 22명의 답변을 취합하여 한 번 보도록 하겠다.




먼저, GPT-4의 성공이 AGI 탄생의 가능성이 높다는 것을 의미하는 것인지에 대한 설문 결과이다. 


Yes : 8명
No : 14명


최고의 인공지능 석학 22명 중 14명은 아직의 대규모 언어모델을 궁극적인 인공지능인 AGI 와 연결시키기에는 아직 미흡하다는 의견을 제시하였다. 특히나, 앤드류 응, 얀 르쿤, 요수아 벤지오 등 인공지능 기술의 최고 석학들은 아직 GPT-4는 파워풀한 인공지능 툴로서는 미흡하다는 의견을 제출하였다. 반대로 챗GPT를 만든 샘 올트만과 제프리 힌튼 등은 GPT-4는 AGI의 가능성을 보여주고 있고, 너무 빠른 발전을 보이고 있다는 의견을 개진하였다.


종합해 봤을 때는 아직 많은 사람들이 우려하는 만능 인공지능, 슈퍼 인공지능, 강 인공지능 AGI에 대해서는 갈 길이 멀다는 것이 다수의 의견이다. 하지만 적지 않은 수인 8명의 학자들은 조만간, 혹은 시일이 지난 언젠가 AGI가 등장을 할 것이고 그 시작이 GPT-4라는 의견을 가지고 있다. 이는 현재의 흐름을 마냥 무시할 수만은 없다는 방증이 아닐까?




두 번째 질문, AGI는 문명의 재앙을 불러올 것인가에 대한 결과이다.


Yes : 4명
No : 12명
Maybe : 6명    


인공지능을 연구하는 최고 석학들은 아직 인공지능으로 발생할 재앙을 진지하게 생각하는 사람은 4명에 불과했다. 하지만 주목해야 할 것은 앞선 질문에서는 나오지 않은 대답 "Maybe"이다. Maybe 대답을 재앙에 대한 가능성이 어느 정도 있다로 해석을 한다면, 인공지능으로 인한 재앙 가능성에 22명 중 무려 10명이 어느 정도 긍정을 했다는 것이다. 실제로 인공지능 아포칼립스에 대한 우려가 단순 콘텐츠를 넘어섰다는 것만을 전문가들 설문을 통해 알 수 있다. 물론 다수인 12명은 인공지능으로 인한 재앙의 가능성 자체를 부정하고 있지만.


오늘 글에서는 인공지능이 초래할 재앙에 대한 인공지능 전문가들의 생각을 살펴보았다. 해당 설문에 응답한 사람들은 평생을 인공지능 연구에 매진하였기에, 저러한 설문 결과가 어느 정도 편향이 되었을 수도 있다. 막연한 호감 혹은 비호감을 가지고 있는 이들의 응답이기에 객관성을 담보하지 않을 수도 있다는 것이다. 하지만 인공지능을 공부했다면 누구나 알 만한 22명의 현재 생각을 엿볼 수 있었다는 점에서 상당히 흥미로운 기사임에 틀림이 없다. 이 글을 읽는 여러분의 인공지능에 대한 생각은 어떠한가요? 여전히 두려운가요?


--

사진출처 : https://v.daum.net/v/20230407030200932



브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari