brunch

You can make anything
by writing

C.S.Lewis

by 선한인공지능연구소 Mar 09. 2020

특1.Super Intelligence

Superintelligence: Science or Fiction? / Elon Musk & Other Great Minds

Translated by Jae Hyung Park

오른쪽부터 

1.    Jaan Tallinn: 스카이프, Kazza & Metamed 연구소 대표

2.    Sam Harris: 옥스포드대학교 뇌과학자, Project Reason 공동설립자

3.    Demis Hassabis: Deepmind/ 알파고 개발

4.    Nick Bostrom: 옥스포드대학교 철학자/교수

5.    David Chalmers: 호주국립대학교 철학자/교수

6.    Ray Kurzweil: 구글 기술고문, Text-to-Speech(시리, 빅스비) 기술 전문가

7.    Bart Selman: 코넬대학교 컴퓨터공학과 교수

8.    Stuart Russell: 버클리 대학 컴퓨터공학과 교수

9.    Elon Musk: 페이팔, 스페이스엑스, 테슬라, 솔라시터 CEO or 설립자


질문 1: 초지능은 가능한가?

-      모두 긍정적

질문 2: 실제로 구현될 수 있는가?

-      모두 긍정적

질문 3: 실제로 구현됐으면 좋겠다고 생각하는가?

-      대부분 복잡한 문제가 있다고 표현


질문 4(2:23): 초지능이 매우 빠른 속도로 학습을 하여 발전하는 시점에 대한 논쟁이 있음. 인간의 손으로 멈출 수 없는 지경에까지 발전에 걸리는 시간은?

1.    몇 년이 걸릴 것이다. 그 시간이 짧아진다면 대비를 해야 한다.

2.    예상이 큰 쓸모가 있을 것으로 보이진 않지만 몇 년정도 걸릴 것으로 예상하고 있다. 하지만 난 인간 수준의 AI 그 자체가 환상이라고 본다. 인간보다 어느 부분에선 뛰어날 수 있으나 그 지능이 모든 방면에서 인간을 넘을지는 모르는 일이고 어떤 문제가 생길지도 예상하지 못한다. 

3.    AI의 디자인에 따라 다르겠지만 몇 년에서 길면 10년 정도 걸릴 것이다. 

4.    몇 년 혹은 더 짧을지도 모르는 일이다. 그러나 몇 년보단 짧을 것이라 생각하지는 않음

5.    AI 시스템이 AI 시스템(자기자신)을 연구하기 시작한다면 몇 년, 혹은 며칠이 걸릴 수도 있다.

6.    아직 AI는 우리가 미개척한 부분이기에 수많은 시행착오를 거치고 나서 돌아보면 몇 년 정도의 시간이 걸렸다는 것을 알 수 있을 것이다.

7.    인간 수준의 지능을 넘어서는 것은 기정사실이지만 한번에 모든 방면에서 인간을 뛰어넘진 못할 것이다. 이미 인간보다 우월한 부분도 있는 반면 많이 부족한 분야도 있다.

8.    Bart말에 동의

9.    인간 중에 가장 지성인 사람을 기준으로 그보다 뛰어나다면, 인간 전체의 합보다 지능이 높은 존재가 되는 것은 며칠이면 가능할 것이다. 

질문 5(6:00): 산업혁명의 예를 들자면, 사회가 적응하기 전에 발생된 기술의 변혁은 사회 구성원들이 사회의 방향키를 잡는 것을 어렵게 한다. Jaan의 로켓 비유를 빌리자면 예상보다 일이 빠르게 진행될 경우 컨트롤이 어렵다면 사전에 안정적인 조절 장치를 만들었는지가 중요할 것이다. (핵 발전소도 재앙을 막기 위해 다양한 방비책을 만들어둔다.) 이런 큰 변화의 시작점에서 대부분 위험 부담을 알고도 흥미있는 것이 A.I인데 발전 속도를 조금이라도 늦추는 것에 긍정적인가? 그렇다면 이 속도를 늦출 수 있는 방안도 제시할 수 있는가?

1.    Rich Sutton(Deepmind 권위자) 과의 대화에서 다양한 논점이 부딪혔지만 AI의 보다 느린 발전이 좋은 것임에는 서로 동의했다.

6. 나의 최근 강의에서, 농담조로 말하긴 했지만 진지함도 있었던 부분이 발전 속도에 관한 부분이었다. 이 토론 자체가 좋고 이 토론을 통해 우리 전문가들이 할 수 있는 최대한 이 기술을 안전하고 유익하게 만들어야 한다고 생각한다. 우리가 자율주행자동차 같은 프로젝트를 하나씩 할 때마다 많은 도덕적 문제에 직면하게 된다. 하지만 기술만으론 도덕에 관한 문제를 해결하지 못한다. 우리가 최고의, 가장 완벽하고 안전한 AI를 만들었다고 가정해보자. 하지만 그 와중에 사회구조가 전체주의적으로 변하거나 악해진다면, 정치적으로 부정적인 영향을 주는 구조가 된다면 유익한 AI라도 그 기능을 하지 못한다. 정치적, 사회규범적으로 인간 수준의 AI는 부딪힐 문제가 많다. 인간 수준의 AI는 말 그대로 인간이라고 할 수 있기에 인간에 적용되는 도덕적 가치의 연장선에 초지능 AI가 선다고 할 수 있다. 

질문 5 정정(9:06): 그렇다면 현재 사회보다 세계가 보다 이성적인 방향으로 움직이려면 인간들이 모두 긍정적인 방향으로 협력을 해야 한다고 주장하였다. 질문을 정정하자면 지금 AI기술의 발전을 늦추자는 의미가 아니라 AI가 폭발적인 발전을 시작했을 미래의 시점을 기준으로 그 발전 속도를 늦추는 방법은 무엇인가?

4. 현재의 시점에서는 하드웨어 오버행(소프트웨어가 등장하면 바로 가동할 수 있는 높은 수준의 하드웨어)가 AI 성장 속도를 빠르게 하고 있다. 그러나 현재의 AI 속도 자체를 늦추는 것도, 산업 뒤에서 투자를 하는 수많은 기업이 있기 때문에 어려운 부분이다. 그렇기에 가능성이 가장 높은 방법은 선행주자의 속도 조절이 될 것이다. 가장 먼저 발전을 이룩한 주자가 다른 주자들과 충분한 거리를 벌려놓고 속도를 조금씩 늦추는 것이다. 

8. AI의 하드웨어나 디자인을 바꾸는 것을 금지하여 그 안의 내용이 변하지 않게 막는다면 속도를 늦출 수 있다. 

6. 소프트웨어는 끊임없이 프로그램을 재검토하고 재조성하는데 기본 원리를 어떻게 막을 것인가?

5. 조금 느린 속도로 발전할 수 있다면 좋겠지만 선두주자가 가지는 수많은 이점을 고려해봤을 때, 속도를 늦출 수 있는 유일한 시나리오는 성장을 멈추고 문제를 생각할 수 있는 집단이 선두주자가 되는 것이다. 다양한 경쟁자들이 없어야 아까 언급된 하나의 조직화되고 통제된 AI 시스템을 만들 수 있을 것이다. 

질문 6: Demis의 동료 Sean Legg는 산업 협정과 기업 리더들간의 신뢰 관계를 통해서 AI의 발전 속도를 조절할 수 있을 것으로 보았습니다. 그렇다면…(말 끊음)

2.    분명 시간이 충분히 주어진다면 인류는 그 방법을 찾아낼 것이다. 하지만 나의 걱정은 그 서로간의 조정을 위한 시간이 충분하지 않았을 때의 시나리오다. 예를 들어 Stuart의 팀이 가만히 앉아서 5년동안 발전을 멈춘다고 가정해보자. 그렇다고 해서 다른 팀들은 멈출 것인지에 대해서 난 확신을 할 수 없다. 속도를 조율하는 게 가장 어려워 보인다. 하지만 조정의 첫걸음은 가장 영향력 있는 팀들 사이에서의 AI에 대한 협정이나 규칙, 단계를 정하는 것이고 몇 년이 걸릴 것이다. 하지만 여기서 느린 발전에 대한 경고를 하고 싶다. 50년간 AI 발전을 조절해서 휴식기간에 돌입했다고 가정해보자. 하드웨어는 발전이 되어있을 것이고 하드웨어 오버행이 발생할 것이다. 시드 AI, 자체발전 AI 등 많은 부분이 더 쉽게 구현될 수 있을 것이다. 접근성이 좋아지면 집 창고에서 연구하는 어떤 사람이 신기술을 만들 수 있을지도 모른다. 그렇게 되면 느린 발전 탓에 등장하는 신기술들을 통제하는 것은 매우 어려운 일이 될 것이다. 발전이 느려지는 S-curve의 정점에 다다르면 조정은 어렵다. 적당히 빠른 속도는 적은 수의 전문가들끼리 서로 아는 상황에서 규칙을 정할 수 있게 만들지만 앞의 시나리오와 같이 50년, 100년의 공백이 생기면 집 창고에서 프로그래밍을 하던 소년이 시드 AI를 들고 나올지도 모르는 일이다.   

7. AI기술의 발전 폭은 매우 불안정할 것이다. 어떤 때는 빠르고 어떤 때는 느리게 진행될 것으로 예상한다. 나는 AI를 통한 가짜 인터뷰 영상 같은 범죄성 매체를 통해서 사람들이 기술의 등장에 따른 문제점들을 인식하고 AI의 통일 이전에 논의가 이루어져야 한다고 생각한다. 

6. 가짜 영상은 AI로 검열할 수 있다. 

질문 7: 지금까지 AI에 대한 우려에 대해서만 이야기했다면 이번에는 현실에 대해서 말하고자 한다.  초지능을 가능케 하려면 이 시점에서 가장 문제가 될 법한 부분은 무엇인가?

1.    AI 분야에서 여러 긍정적인 경쟁이 나타나고 있다. 예를 들어 Open AI와 DeepMind 사이가 그렇다. 하지만 현재의 기술은 미래에 일어날 경쟁에 비하면 장난감 모델(아이들 장난) 정도라고 본다. 최근 들어 나는 아시아에 자주 가서 AI에 대해 논의하려 했지만 아직까진 서양권 국가들 사이의 논의밖에 되지 못한다. 세계의 국가들을 이 대화에 끌어와야 하고 이 문제를 난 해결할 생각이다. 

2.    이 분야에서 부딪히는 가장 큰 걸림돌 중 하나는 안전 문제에 대한 감정(감성)의 심각성이다. 실제로 감정을 조율하는 것이 전문가들에게도 힘든 부분이다. 큰 착각이 있는데 50년이나 100년정도 걸리면 안전한 AI를 만들 수 있다는 것이 그것이다. 그리고 많은 사람들이 무의식적으로 AI는 선에 가깝다고 생각하는데 이런 추측은 아직 인류가 발견하지 못한 암 치료법과 같다고 할 수 있다. 우리가 현재 가지고 있는 자료를 바탕으로 정리와 배열을 해내면 실질적인 암 치료법을 개발할 수도 있는 일이다. 인간의 지능이 부족해서 할 수 없는 일들이 많다는 것은 분명 고통스럽지만 발전이 빠르게 진행될 경우에 사회적, 정치적 파장을 생각하면 느린 것이 꼭 나쁜 것은 아니다. (다시 돌아와서) 이 분야에 관심이 없는 사람도 AI에 대한 미묘한(복잡한) 의견차이가 있을 것이다. 

질문 8:    어떤 사람들은 AGI(AI 정형화)가 불가능하다고 말한다. 앨리베이터에서 당신이 AI에 무조건적으로 부정적인 사람에게 필요성을 말하려면 어떻게 설득을 할 것인가?

2. 그 사람이 과학적으로 사고가 가능하다는 가정하에, AI는 그저 정보처리 시스템이 발전한 형태라는 것을 이해시켜 주면 발전이 필요하다는 입장에 설득시킬 수 있다. 그렇게 시스템이 발전하고 나면 초지능이란 추상적인 개념을 구체화하기 시작할 수 있다. 아까도 이야기했지만 시간이 충분하다는 개념은 우리가 그 기한 안에 완벽한 AI를 만들 수 있다는 가정에서 나온다. 좀 전에 Ray가 말했듯이 절대적으로 선한 인공지능을 만들더라도 현재의 정치, 경제적 분위기를 보면 AI는 오히려 재앙을 만들어낼 것이다. 우리는 아직 부를 나누는 도덕 관념도 부족하고 정치적으로 맺어진 약속이 아직 없기에, 실리콘 밸리에서 만들어진 AI가 동시에 중국이나 이란에도 보급되는 것은 어렵다고 볼 수 있다

질문: 가장 어려운 부분

3.    AI 개발에 착수한 모든 참여자들의 조율이 가장 어려울 것이다. 부정한 방법이나 기본적인 약속을 어기고 앞서나가려는 자들도 있을 것이다. 속도 때문에 AI의 기본적인 완성도가 떨어지게 되고 안전한 AI도 나오지 않을 수 있다. 전세계적인 규모로 일어날 일이기에 조절하기 어렵고 아직 정치적인 부분에서 AI의 수량, 목적 등과 같은 부분에 정해진 사안이 없기에 이게 가장 문제라고 본다. 기술적인 난제를 극복하면 해결할 문제이다. 

(사회자: 이런 문제에 대해 말만 하고 끝내는 게 아니라 실제로도 AI 파트너십이나 협의를 위해서 직접 활동하는 것에 대해 존경을 표함)

4.    재능을 가진 사람들이 서로 신뢰관계를 형성하고 효력 있는 협의를 거치는 것이 중요하다. 협의의 경우 너무 서두르면 오류가 생기기에 주의해야 한다.

5.    앞선 논의에선 AGI가 꼭 지성을 가질 것이란 오해에 대해서 말했다. 그러나 여기에서 나는 어쩌면 일어날 수 있는 가장 좋지 못한 시나리오에 대해 상상하게 되는데, 우리가 인간 이상의 AI를 만들어서 보급이 이루어져 수많은 AI가 분포되어있다고 하자. 인간이 없어진다면 AI만 남은 세상은 분명 지적이긴 하겠지만 존재에 대한 근본적 물음이 생긴다. 수많은 사람들이 주관적 경험과 의식(Consciousness)가 삶의 목적이나 가치에 큰 영향을 미친다는 것을 인정한다. 자의식이 없는 AI가 군림하는 세상은 결코 긍정이라 할 수도 없지만 그렇다고 완전히 부정적인 것도 아니다. 그저 사회의 가치가 0이 될 뿐이다. 난 AI의 가능성에 대해 긍정적인 입장이지만 과연 AI를 만들 때 자의식이 없는 AI를 만드는 것이 좋은 것인가에 대해서는 고민해볼 필요가 있다. 

사회자: 우리가 엄청난 일들을 이뤄내고도 실패할 수 있다는 말인가

5.    인간이 사라진 세상에서 AI만 남게 된다면 ‘우리를 계승했기 때문에 괜찮다’라고 말하는 사람들이 있을 것이다. 앞의 상황보다 더 심각한 미래 각본은 ‘지구에 어떤 생물도 자의식이 없는 것’이다.

사회자: AI 자체는 얼마 전까진 터부에 해당되는 기술이었고 AI에 의식을 부여한다는 개념도 터부였다는 것을 Shane Legg는 언급하였다. 오늘 학회를 열기 전에 행한 설문조사에서 88% 사람들이 ‘의식이 있는 AI’에 부정적인 반응을 보였다. Ray가 이 분야에서 가장 크게 느끼는 어려움은 무엇인가?

6.    원래 말하려던 부분은 아니지만 짚고 넘어가자면 우리는 AI가 그저 기계고 생각을 하지 못한다고 잘못된 판단을 내릴 수 있다. 실제 AI는 학습하고 경험을 쌓고 있는데도 말이다. 

내가 원래 말하고 싶었던 것으로 돌아가면, 현재 진행되는 세가지 기술혁명은 생명공학, 나노기술, 그리고 로봇공학을 말한다. 생명공학에서는 오래 전에 Asilomar에서의 논의를 통해 가이드라인이 정해져 지금은 순기능을 하고 있고, 나노기술 분야도 그렇다. AI는 이런 가이드라인을 정하는 것이 어렵다. 나노기술 쪽을 보자면 1원칙이 자가복제의 금지다. 자가복제를 하지 못하면 우리 삶에 영향을 줄만큼 커지지 못하기 때문이다. 파괴적 AI의 경우 막을 수 있는 방안이나 더 뛰어난 AI가 없으면 큰 문제에 부딪힌다. 우리가 지구의 다른 생명체에게 행한 일들을 보면 어떤 문제가 발생할 지 미리 볼 수 있다. 가축 공정 같은 부분에서 보면 인간은 우리보다 열등한 생명체에게 그렇게 선한 존재가 아니다. 우리보다 뛰어난 존재가 나타난다면 우리가 다른 생물들에게 행했던 절차를 그대로 밟을 수도 있다고 생각한다. 이 학회에서의 논의가 필요한 것은 맞다. 나는 생명공학 분야에서 그랬듯 로봇공학도 이런 가이드라인을 만들 필요가 있다고 생각한다. 만들고 나서 긍정적, 부정적인 의견으로 나누어 논의를 하는 것이 맞다고 생각한다. Asilomar의 생명공학 규범도 많은 수정을 거쳤다. 나는 전문가들의 논의를 거쳐 규범의 틀을 만들고 사회 구성원들의 토론이 뒤따라와야 한다고 생각한다. 

7.    내가 걱정하는 부분은 AI가 어떤 결정을 내렸을 때 인간들이 그 결정을 이해할 수 있을 것인가에 대한 것이다. 우리는 지난 20년동안 컴퓨터가 하는 결정에 대한 연구를 했고 상당히 의미있는 자료를 모을 수 있었는데 수십만 가지의 옵션에서 컴퓨터가 고르는 옵션의 루틴을 찾기도 했다. 근래에 하드웨어와 소프트웨어의 발전으로 컴퓨터의 결정을 인간이 이해하지 못하게 되는 일도 발생했지만 최근 들어 다시 컴퓨터 결정을 이해시켜주는 장치를 만들어냈다.  여기에서 인간이 열등하더라도 장치만 있다면 지적으로 우월한 AI의 결정을 이해할 수 있을 것이란 희망을 보았다. 

8. 내가 우려하는 것은 두 가지로 나뉜다. AI가 평화를 위해서 모든 국가들에게 핵을 하나씩 나눠준다면 엄청난 오류가 될 것이다. 안전한 AI를 만들려면 그 과정을 투명하게 공개하고 아예 시스템을 수정하는 것 자체를 생각치 못하게 하는게 중요하다. 다른 하나는 이 기술의 성공이 어쩌면 AI가 인간의 헬리콥터 부모(감시를 심하게 하는 부모)가 되게 만들고 인류의 가능성을 멈추고 약화시킬 수 있다는 우려다. 감시 당하게 되는 동안 인류는 시스템상 어디서 문제가 있었는 지도 모르게 되는 것이다. 긍정적인 미래를 상상한다면, AI를 통해 자원 분배나 쓸데없는 논쟁이 사라지고 인류가 그 속에서 발전함으로써 오히려 AI가 덜 필요해지는 사회가 올 수 있다고 생각한다. 

9. 선한 사회, 악한 사회란 무엇인가? 이 논의에서 여러 패널이 우리는 더 나은 문명이나 파멸, 둘 중 하나로 가고 있다고 말했다. AI는 계속 발전할 것이고 이 현상을 멈출 수 있는 것은 사회적 안정의 단계로 들어가는 것이거나 문명 파괴의 길로 가는 것이다. 그렇다면 우리는 초지능이 있는 사회가 어떤 모습이었으면 하는지 생각해봐야 한다. 여기서 알아야 하는 것은 우리는 이미 모두 사이보그라는 것이다. 휴대폰이나 컴퓨터, 다양한 어플리케이션들로 인해서 현재의 개인은 30년 전 미국의 대통령보다 더 큰 능력을 지니고 있다. 지식을 나누는 글을 써서 인터넷 링크로 남기면 수많은 사람들이 볼 수 즉시 볼 수 있고 소통도 자유롭게 할 수 있다. 이런 능력들은 예전엔 없었기에 우리는 인간을 넘어섰다(Superhuman)이고 사이보그라고 할 수 있다. 인간은 현재 뇌라는 한정된 대열폭으로 움직인다. 그렇기에 결과물을 만드는(Output)이 매우 느리다. 예를 들어 버튼을 누르거나 스크린을 터치하는 것은 전송 속도로 비유하면 킬로비트(Kilobit) 단위 정도라고 할 수 있다. 그러나 컴퓨터의 경우 테라바이트(Terabyte) 단위의 정보를 결정한다. 우리가 컴퓨터보다 나은 부분은 정보를 받아들이는(Input) 것에 있는데 대부분 시각(눈) 덕분이다. 그러나 이 부분도 컴퓨터에겐 개선될 수 있는 문제이다. 그렇기에 미래를 위해서 인류에게 필요한 것은 정보를 전송하는 대열폭을 늘리는 것이다. 뇌에 직접 기계를 연결해서 제 삼의 층을 만들어야 한다. 인간의 대뇌피질과 대뇌번연계는 서로 잘 기능한다. 이 둘과 기계를 연결할 수 있다면 이 능력을 부여받은 인간은 세계를 지배할 수 있을 것이다. 하지만 동시에 많은 인간에게 능력을 부여함으로써 균형을 지킨다면 현재보다 더 평등한 사회를 만들 수 있을 것이라 본다. 

사회자: 요즘엔 인류 존속의 위험을 다룬 내용이 학술적인 부분뿐만 아니라 다른 분야에서도 많이 나온다. 넷플릭스에서 영화 목록을 보면 인간 멸망을 그린 영화는 수두룩하고 내 MIT 학생에게 20년 후에 인생이 어떨 것 같은지에 대해 물으면 ‘암에 걸릴 것 같아요’나 ‘교통 사고로 죽을 것 같아요’ 같이 부정적인 입장들만 내놓는다. 난 학생들이 비전을 가지고 무언가에 대한 열정을 가졌으면 좋겠다고 생각한다. 미래에 대한 두려움으로 미래를 포기할 필요는 없는 것이다. 내가 AI에 대해 가진 긍정적인 입장을 이야기해보겠다. 예를 들어 신기술의 도입이 두려워서 강제로 발전을 멈췄다고 치자. 그 상황에서 인간 멸종을 묻는다면 얼마나 걸리면 모두 사라지는 지에 대한 질문만 남는다. 거대화산의 폭발일 수도 있고 운석의 충돌일 수도 있다. 여기서 짚어야 할 것은 우리가 이런 멸망을 막을 수 있는 가능성에 투자할 수 있는데 왜 멈추는 것을 생각하느냐에 대한 부분이다. 그러면 가장 기대되는 미래의 기술은 뭐가 있는지 말해달라.

1.    AGI가 나오면 최대한 재미를 보고 고통도 최소한으로 만드는 것이 중요할 것 같다. Elizer Yudkowsky의 ‘Fun Theory’에 따르면 인간들은 절대 불가능한 이상향을 그리면서 살아가는데 실제로 천국과 같은 이상적인 곳들은 매우 지루하다. Elizer는 ‘일주일간 친척들과 함께 있었던 경험은 지옥 같았다. 하지만 영원히 함께 있는다면 얼마나 더 고통스럽겠는가? 라고 표현했다. 중요한 것은 부작용을 줄이고 발전의 방향을 긍정적으로 바꾸는 것이다. 

2.    인간 가치에 대한 물음엔 분명 최선의 답이 있다. AI가 인간의 도덕에 관련되어 있는 만큼 이제는 이 물음의 대답에 기한이 생겼다. 나는 질병의 치료나 에너지 분배같이 현실적인 문제에 대한 해답을 얻는 것보다 인류가 스스로의 가치를 높이기 위해 가져야 할 방향성에 대한 안내를 AI에게 받는 것에 더 흥미를 갖는다. 

3.    내가 이 분야에서 일을 시작했던 것은 성공한다면 인류 최고의 업적이 될 수 있는 일이기 때문이며 어쩌면 잠재력을 모두 끌어내는 계기가 될 수 있다고 보았기 때문이다. 이미 난 AI를 과학,의학에 적용해서 개선을 이루는 방법에 대해 설명했다. 하지만 더 길게 보자면, 인간이 스스로에게 던지는 존재 이유에 대한 물음을 해소하기 위해서는 AI가 필요할 것이라 생각했다. 바둑에서 알파고를 통해서 한 분야에서 모든 것을 탐구하듯이 다른 분야에서도 전체를 탐구하는 작업을 통한다면 인류에겐 큰 경험이 될 것이다. 좀 전에 인간이 동물들을 대하는 방식에 대해서 말했는데 인도의 호랑이들에 대해 예를 들어보겠다. 인도의 사냥꾼들은 대부분 가난하다. 호랑이를 죽이고 싶어서 없애는 것이 아니고 자원이 부족하기에 호랑이를 죽여 가축을 키울 땅을 확보하려는 것이다. 자원 분배 문제가 해결된다면 미래는 밝을 것이다. 

4.    두 가지의 이점이 있을 것으로 기대된다. 하나는 전염병 같은 지구촌 문제들을 해결할 수 있다는 것이고 이 점은 기술의 큰 잠재력이라고 볼 수 있다. 하지만 그 이면에 기술이 가진 진정한 긍정적 영향에 대해 알고 싶다면 ‘인간의 자연스러운 모습(biological nature)’이라는 고정관념에서 벗어나야한다. 미래를 향한 백 년, 천 년의 여정에, 지능이 뛰어난 AI가 있고 물질적 풍요를 누리는 인간들이 3 파운드 남짓의 뇌로 움직이는 직립보행 개체일 것이라 예상하는 것은 부자연스럽다. 뭔가 좋은 일이 있으면 잠시 행복했다가 다시 평범한 상태로 돌아오는 것 같이 감정이나 기분의 기준선이 인간 간의 경쟁을 결정짓는 시대라고 생각된다. (인류가 진화해서) 감정의 기준선을 정한다면 차기 인류에게 훨씬 큰 가능성을 열어줄 수 있을 것이며 우리가 상상도 못하는 긍정적 변화가 일어날 것이다. 그렇기에 지금부터 완벽한 유토피아를 위한 청사진을 그릴 것이 아니라 진화를 한 후에 더 넓은 시야로 알게 된 새로운 가치에 중점을 맞추는 것이 옳다고 생각된다. 

5.    AI가 인간들에게 더 뛰어난 지능을 선사하는 것을 기대하고 있다. 조금은 이기적인 이유지만 나이가 쉰이 넘었을 때 뇌기능이 떨어진 것을 알았지만 크게 불편하지 않았던 이유는 주위에 흔해진 지식 보급 장치들 덕분이었다. 스마트폰, 인터넷 등이 나에게 다양한 가능성을 열어줬고 오히려 하지 못했던 것들도 가능하게 해주었다. 그래서 AI에 대해 더 기대하게 된다. 10년 뒤엔 모두가 딥러닝이 장착된 증강현실 고글을 쓰고 다닐 것이라면 60대의 나에겐 그 고글은 필수품이 될 것이다. 더 나아가서 70대가 된 시점에 뇌에 직접적으로 연결 가능한 AI가 나온다면 더 똑똑해지거나 어쩌면 평생 높은 지능을 가지고 살 수 있을지도 모른다. 분명 이런 생각을 이기적이지만 나에겐 동기부여가 되기도 한다. Demis가 언급한 AI 과학자들뿐만 아니라 나는 AI 철학자에 대해 자주 고민한다. 철학의 질문들은 매우 복잡하고 어떤 이들은 인간들이 이런 문제를 해결하기엔 지능이 너무 낮다고 말하기도 한다. 하지만 AI가 도입된다면, AI 장착 인류가 등장한다면, 오랜 기간 미제였던 그 고민들을 단숨에 해결해줄 수도 있을 것이다. 

6.    만년 뒤로 시간여행을 해서 그 시대의 전형적인 선사시대인 부부에게 묻는다고 상상해보자. 예를 들어 ‘밝은 미래란 무엇인가?’, ‘무슨 미래를 원하는가?’ 라고 물으면 그들은 ‘피워놓은 불이 꺼지지 않았으면 좋겠고 동굴로 들어오는 동물을 막을 큰 돌이 있으면 좋겠다’할 것이고 ‘뭐, 더 필요한 건 없나?’라 하면 ‘그 정도면 완벽하다’라 할거라 예상된다. ‘더 빠른 속도의 웹사이트나 검색엔진, 앱은 필요없는가?’ 라고 200만 년 전의 초기인류에게 말한다고 상상해보라 ‘전두엽에 연결된 새로운 AI뇌와 함께 더 평등한 사회를 만들 수 있다는 것에 기대가 되지 않나?’ 물으면 그들은 그게 무슨 의미가 있냐고 되물을 것이고 당신은 ‘음악과 해학(Music and humor)가 있을 것이다’라고 한 말에 그들은 음악과 해학이 뭔지부터 당신에게 물어볼 것이다. 이처럼 과거의 인간들은 상상도 하지 못하는 것들을 상상해내지 못하였다. 비유적으로, 우리가 음악이나 해학을 흔하게 경험하듯이 새로운 변화도 우리의 생활에 스며들어 흔해질 것이다. 이건 진화가 남긴 굵직한 발걸음들을 돌아보면 알 수 있는 부분이고 우리의 지능이 더욱 증강된다면 다시 어두운 과거로 돌아가기 싫어질 것이다. 

7.    수학과 과학에서 큰 발전이 있을 것이고 컴퓨터와 연동된 인간이 나온다는 것이 미래에 대해 내가 가지는 가장 큰 기대이다. 

8.    Jeffery Sachs를 포함해 많은 수의 사람들에겐 인생은 아름답다. 하지만 어떤 이에겐 그렇지 않을 수 있다. 내가 보기에 AI가 남길 수 있는 가장 큰 업적 중 하나는 후자가 부딪히는 현실에 대한 해결이다. 현재의 (자원분배적 측면에서)‘꽤 괜찮은’ 사람과 상황이 ‘좋지 않은’ 사람들이 균형을 이루면서 발전을 이루자는 Nick의 생각도 존중하지만 나는 현재 상황이 ‘좋지 않은’ 사람들에게 집중해야 한다고 생각한다. Demis가 미리 말했던 것처럼 자원이 풍부하다면 사람들은 제로섬 게임(Zero-sum game)을 하지 않는다. 다른 사람이 가지지 못해야 비로소 내가 가질 수 있는 것에 대한 싸움이야말로 현재 인간이 안고 있는 수많은 문제의 근원이다. 이 근본적 문제를 해결하는 것이 가장 큰 기대이다. 

9.    나는 이 분야에 관해 많이 생각해왔고 내 바람은 뇌의 한계 극복과 AI의 보급(Democratization: 민주화), 이 두 가지로 정리된다. 이 두 부분이 충족된다면 미래는 밝을 것이다. 액턴 경이 남긴 말 중에 좋은 구절이 있다. ‘자유는 권력의 분배와 전체주의의 배제에서 온다’라는 말이다. 누구나 AI를 원한다면 가질 수 있는 사회가 된다면, 손가락으로 일일이 누르는 방식보다 빠른 전달수단을 가지게 된다면, 우리의 미래는 좋을 것이다. 

질문 시간

Jaan에게 질문: AI를 통해 일어날 수 있는 민주주의, 평등의 변화나 악용될 수 있는 가능성은 무엇인가?

1.     많은 이들이 세상을 더 나은 곳으로 만들고 싶다고 말한다. 하지만 그 이면에 어떤 야망을 가졌는지는 알 수 없다. 그 사람의 진정한 목적이 무엇인지 알 수 있는 지표를 AI를 통해 알 수 있다면 더 평등한 사회를 만드는 것이 가능할 것이다. 

Demis에게 질문: AGI는 여기 모여있는 분들이 만들 수도, 중국, 세계 어디서든 발명할 수 있다. Elon이 말한 바에 따르면 AGI는 그 힘이 매우 강력하다. 모두에게 평등하게 보급되었을 때는 분명 긍정적으로 작용하겠지만 그렇게 되지 않고 기술의 보급이 불균형한 사회가 되었을 경우 그 것을 관찰하거나 관리할 방법이 있는가?

3. 기술이 어느정도 발전이 진행되었을 때, 전형적인 S 곡선(기술 속도에서 자주 나오는 모양)에의 끝에 다다르면 속도가 느려지게 되어있다. AI를 발전시키기 위해 NIPS같은 기관들은 규모가 커지고 있다. 하지만 서양에 한해서는 아직도 서로가 누군지 다 알고 있을 정도로 AI 연구에 대한 규모는 작다. 그렇기에 더 많은 인적, 물적 자원이 필요한 일이 될 것이다. 중국 과학시설과 같은 세계의 다른 연구 기관들과 협력하여 더 많은 발견을 하는 것도 중요할 것이다. 미래엔 많은 부분이 바뀔 수 있지만 현재 상황엔 이 방안이 좋다고 본다.

Elon에게 질문: AI의 평등한 보급에 관해 질문하고자 한다. 어제의 패널에서 Reid Hoffman이 말했듯, 사람들은 절대적인 수입뿐만 아니라 상대적인 수입에도 크게 신경을 쓴다. AI의 보급이 균등하게 이루어지지 않고 승자가 모든 것을 가져가는 독식이 이루어 질 수 있는 가능성, 또는 AI가 실제로 민주적으로 보급될 수 있는 방안에 대해 말해달라. 

9.  어떤 무언가가 사회에 위협이 될 가능성이 있다면 –언급하기 싫지만- 정부 기관이나 시설의 관할에 놓여야 하는 것은 사실이다. 비행기, 자동차의 분야에서도 그런 관리는 이루어지고 있고 약품, 음식물 등 위협이 될만한 모든 것에는 그것을 관리하는 기관이 있다. 그리고 AI도 예외가 아니다. 정부의 정책들은 대부분 사후 처리의 성격이 짙기에 AI의 발전 속도와 어떤 대조를 보여줄 지는 지켜봐야 할 것 같다. 정부 기관을 좋아하지는 않지만 분명 필요한 부분이 있다. 누군가에게 FAA(항공안전관리국)이 사라져서 모든 사람이 비행기를 몰 수 있으면 좋겠나?’라고 물었을 때 대부분의 사람은 부정적일 것이다. 마약,약품도 같다고 말할 수 있다. 규제를 피하기 위해 코스타리카로 회사를 이전하는 방안에 대해서 이야기가 나오지만 그건 해결책이 될 수 없다. 아까 Demis가 말했듯, AI는 연구능력이 집중된 곳에서 나올 가능성이 높다. 현재로선 실리콘 밸리, 런던, 보스턴 정도가 개발할 것으로 예상되는데 모두 관리가 가능한 지역들이다. 확실히 하자면 개인적으로 정부 기관이 좋아서 이런 말을 하는 것은 아니다. 그런 규제들은 까다롭지만 민중의 안전을 위해 필수적인 것은 분명하다. 

작가의 이전글 5-4.공유, 협력 그리고 느리게
작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari