“나는 다시 출발점으로 돌아가 상상 속의 질서와 지배적 구조를 창조해내는 인류의 독특한 능력을 재검토해야겠다는 생각이 들었다.”
유발 하라리 히브리대 역사학과 교수가 2022년 말 발표한 <사피엔스> 출간 10주년 특별판 서문 중 일부다. 인공지능(AI)의 비약적 발전을 지켜보는 역사학자 하라리의 고민이 고스란히 담겨 있는 문장이다. 하지만 이 글을 쓴 건 그가 아니라 생성형 AI 챗GPT-3다. AI에게 ‘하라리 스타일로 <사피엔스> 10주년을 기념하는 서문을 쓰라’고 주문했던 그는 그럴 듯하게 완성된 글을 보고 “충격으로 입을 다물지 못했다”고 털어놨다.
그로부터 1년여. 하라리 교수는 한국경제신문과의 화상 인터뷰에서 “<사피엔스>(히브리어판 2011년 출간) <호모 데우스>(2015년) 이후 많은 것들이 변했다”며 “세상이 변하는 속도가 그 어느 때보다 빠르다”고 말했다.
그는 세계적 베스트셀러 <호모 데우스>에서 현생 인류인 호모 사피엔스가 향후 AI 같은 과학기술을 등에 업고 신적인 존재 ‘호모 데우스’로 나아갈 것이라 내다봤다. 불멸에 도전하고, 인간과 비슷한 존재를 창조해내는 인류는 인공일반지능(AGI)을 넘어 초지능(super intelligence)을 꿈꾸는 현재의 모습과 겹친다.
하라리 교수에게는 매주 수십 통의 인터뷰 요청 메일이 쏟아진다. 이를 관리할 별도 팀까지 둔 그는 ‘AI 시대, 미래세대를 위한 조언’이 주제라는 이야기에 이 인터뷰를 수락했다. 하라리 교수는 최근 청소년을 위해 인류의 역사를 쉽게 풀어쓴 <멈출 수 없는 우리 2>를 출간할 정도로 미래세대에 깊은 애정을 보인다.
그는 이번 인터뷰를 통해 AI 사회에서 인류가 경계해야 할 부분, 미래세대를 위한 새로운 교육 등에 대한 생각을 풀어냈다.
아래는 인터뷰 전문. 중복되는 문장과 일부 질문 순서 등은 편집했다.
▶강력한 인공지능(AI)의 출연은 당신의 책 <호모 데우스>에서 언급한 새로운 인류의 탄생을 떠올리게 한다. <사피엔스> <호모 데우스>가 출간된 이후 세상이 많이 바뀌었다. 예측했던 미래상에 어떤 변화가 있나.
=그렇다. 책이 출간된 이후로 많은 변화가 있었다. 책에서 했던 예측들 중 정확했던 것도 있고 완전히 빗나간 것도 있다.
나는 내가 미래를 예언할 수 있다고 주장하지 않는다. 역사학자로서 내가 하고자 하는 것은 과거에 대한 지식을 이용해 미래에 대한 개연성 있는 시나리오들을 창출해 내는 것이다.
미래에 대해 중요한 것은 미래를 정확히 예측하는 것이 아니다. 중요한 것은 위험한 시나리오들에 대해 사람들에게 경고를 해서 우리가 올바른 결정을 할 수 있게 하는 것, 지금 현명한 결정을 해서 최악의 시나리오가 현실화되는 것을 피하도록 하는 것이다.
내가 <호모 데우스>에서 경고한 것 중에 하나가 '불평등'이다. AI가 세계적으로 엄청난 불평등을 야기할 것이라고 말했다. 단일한 사회 내부에서도, 전체 인구 중 아주 극소수만이 AI의 힘을 틍해 경제적, 정치적 이익을 누리고 나머지 대다수는 뒤쳐지게 될 수 있다고 했다.
국제적인 차원에서도 몇몇 국가들이 AI 혁명을 이끌고 있다. 미국과 중국이 현재 AI 양대 강국이고 아마 5개~10개국 정도가 AI 경쟁에서 선두 그룹에 속해 있다. 전 세계적으로 200여개국이 있는데, 그 중 10개국 정도만이 혁명을 선도하는 위치에 있고 나머지 190여개 국가들, 즉 대부분의 국가들은 뒤쳐져 있는 것이다.
우리가 조심하지 않는다면 19세기 산업 혁명 당시에 있었던 일들이 되풀이 될 수 있다. 당시 영국, 프랑스, 일본 같은 몇몇 국가들이 산업화를 먼저 이루고 나머지 국가들은 뒤처져서 몇몇 산업 강국들에게 정복당하고, 식민지화되고, 착취당했다. 그리고 이렇게 식민지화된 민족들을 해방시키고 19세기에 벌어진 격차를 줄이는 데 한 세기에 걸쳐 끔찍한 고난을 거쳐야 했다.
이런 일이 또 일어날 수 있다. 어떤 국가가 강대국이 될지, 어떤 형태로 일어날지는 다를 수 있다. 하지만 AI의 힘을 연료로 삼아 새로운 제국주의와 식민주의의 파도가 일어나는 일이 이미 관찰되고 있다.
지금 우리가 맞닥뜨리고 있는 위험은 당시보다 훨씬 커졌다. 과거에는 먼 미래에 대한 막연한 예상이었던 것이 이미 현재 여러 나라들이 본격적으로 AI 무장 경쟁을 하고 있다.
▶AI가 남북관계에도 리스크가 될 거라 보나.
(그는 <호모 데우스>에서 “만일 북한이 남한의 온라인 금융 서비스를 붕괴시킨다면, 남한은 어떻게 대응할 것인가?” 물으며 “AI의 부상으로 남북한 사이의 문화적 격차가 벌어지면 통일이 더 어려워질 것”이라고 경고했다.)
=AI가 (남북관계의) 유일한 위험 요인이라고 보지는 않지만, 우리는 최근 세계 전역에서 국제적 긴장이 높아지고 있는 걸 목격할 수 있다. 러시아가 우크라이나를 침공했고, 가자지구에서 이스라엘과 하마스 간의 전쟁도 그렇고, 베네수엘라가 가이아나를 위협하고 있다는 소식도 들린다.
10년 전까지만 해도 보편적 규범과 가치에 기반을 둔 글로벌 질서가 작동하고 있었다. 물론 불완전한 질서지만 역사상 인류가 이전에 가졌던 어떤 질서보다도 나았다. 자유주의 질서는 모든 인간이 공유하는 일정한 경험, 보편적 이로움들이 있다는 가정하에 세계 평화와 번영을 위해 함께 노력해야 한다고 본다. 덕분에 21세기 초는 인류 역사상 어느 때보다도 평화로운 시기였다.
지난 10년 동안 이 질서가 공격받고 있다. 북한 같은 외부의 적뿐 아니라 자유주의 사회 내부에서도 공격받고 있다. 미국의 트럼프 같은 정치인들이 글로벌 질서, 즉 보편적인 공동선과 규범에 적대적으로 행동하고 있다. 국가 간의 관계는 어떤 규칙을 따라야 할까? 이들은 여기에 대한 대안을 전혀 제시하지 않는다.
질서가 붕괴되면 뒤따르는 건 무질서다. 우리는 무질서의 시대에 돌입하고 있고 만약 강력한 글로벌 질서를 구축하지 못한다면 우크라이나와 같은 사태, 중동에서 벌어지고 있는 일들이 점점 더 전세계 여러 곳으로 퍼져나갈 것이다. 점점 더 많은 전쟁들이 터지게 될 것이다. 그렇게 되지 않기를 바란다. 우리가 현명한 결정을 내리고 글로벌 질서를 재정립하기를 바란다.
▶AI의 측면에는 국제 규제기관 같은 게 필요하다고 보는 건가?
=그렇다. 글로벌 차원에서 AI에 대한 규제가 없다면 무분별한 AI 무장 경쟁에 매몰될 것이다. 군비 경쟁 때와 마찬가지로 누군가는 선제 공격을 하고 싶은 유혹을 느낄 것이다.
▶AI시대에는 데이터가 미래 사회의 권력이 될 텐데, 인류는 AI 시대를 위해 무엇부터 준비해야 할까.
=중요한 것은 데이터의 독점을 막는 것이다. 데이터는 새로운 AI 도구들을 만들어내기 위해는 필수적인 연료다. 예를 들어 자율 주행을 하는 자동차, 사람 얼굴을 인식하는 AI 도구들을 만들기 위해서는 아주 많은 양의 데이터가 필요하다.
그리고 일단 AI를 가지게 되면 계속 통제권을 유지하기 위해 끊임없는 데이터의 흐름이 반드시 유지돼야만 한다. 정치적으로뿐만이 아니라 경제적으로도 그렇다.
굉장히 전통적인 산업이지만, 오늘날 섬유산업조차도 데이터가 지배한다. 누가 목화를 생산하는가, 어떤 섬유 공장에서 직조가 이루어지는가는 그렇게 중요하지 않다. 섬유 산업을 장악하고 샆다면 소비자가 무엇을 구매하고 싶어하는지, 최신 유행은 무엇인지에 대한 데이터가 필요하다. 그래서 아마존 같은 거대 데이터 기업들이 섬유산업도 지배하는 양상이 나타나고 있는 것이다.
그런데 그러기 위해서는 전 세계 수십억 명의 사람들의 선호, 기호에 대해 끊임없이 데이터를 수집해야 한다. 따라서 데이터의 흐름을 장악하는가의 여부가 경제적, 정치적 힘의 핵심이다.
만약 몇몇 기업, 몇몇 정부와 국가들이 모두를 지배하는 극도로 불공정, 불공평한 세상이 오는 것을 막으려면 몇몇 기업, 몇몇 정부가 모든 정보를 모아들이고 독점해 버리는 상황을 막아야 한다.
▶경제적 측면에서 살펴보자면 어떤가.
=경제적인 측면에서 살펴보면, 데이터와 관련 특이한 점 중에 하나는 데이터에 세금이 부과되지 않는다는 것이다. 전 세계 모든 세무 당국은 돈의 흐름에 대해 과세를 한다. 상품이 움직일 때도 세금을 부과한다. 내가 베트남에서 만든 셔츠 하나를 사면 세무 당국은 이 셔츠에서 얼마만큼의 세금을 떼야하는지 정확히 알고 있다.
하지만 데이터에 세금을 얼마나 매겨야 하는지는 모른다. 엄청난 양의 데이터가 몇 군데로 흘러 들어가고 있는데, 데이터의 가치는 수십억 (달러), 아니 수조 (달러)에 이른다.
테슬라 같은 회사를 한번 봐라. 사람들은 테슬라가 자동차 회사라고 생각을 하지만 심지어 테슬라 오너 일론 머스크조차 테슬라는 자동차 회사가 아니라는 말을 자주 한다. 테슬라는 AI 회사다. 테슬라의 자동차들은 인간들이 자동차를 어떻게 운전하느냐부터 시작해 끊임없이 엄청난 양의 데이터를 수집한다. 이런 데이터들은 차가 스스로 운전할 수 있도록 해주는 새로운 AI 도구를 만드는 데 사용된다.
테슬라는 나의 데이터를 공짜로 가져가서 AI 도구를 만드는 데 사용하고, 그렇게 개발된 AI 도구를 다시 나한테 되팔고 있다. 그리고 이 모든 과정에서 핵심인 데이터의 양도에 대해 세무 당국은 어쩔 줄 몰라하고 있다. 데이터에 어떻게 세금을 부과할 수 있을까?
▶물론 AI에 여러 리스크가 있지만 잠재력이 큰 것도 사실이다. 예컨대 세계 최악의 출생률을 기록 중인 한국은 AI를 통해 산업 현장을 효율화하면 인구 문제에 대응할 수 있다.
=맞는 말이다. 나는 'AI가 완전히 나쁘다, 끔찍하다, 금지해야 한다'라고 주장하는 게 아니다. 당연히 금지할 수도 없고, 그리고 금지해서도 안된다. 엄청난 긍정적 잠재력을 가지고 있으니까 말이다.
AI는 더 나은 의료 서비스를 우리에게 줄 수 있다. 앞서 자율주행 얘기가 나왔는데, 나 역시 자율주행 자동차, 즉 '내가 전혀 신경쓰지 않고 완전히 운전대를 놓아버려도 되는 차가 나왔으면…' 고대하는 사람 중에 하나다. 그러면 내 인생이 훨씬 편리해지고 더 안전해질 것이라고 믿는다.
AI가 운전을 하게 되면 아마 매년 백만 명이 넘는 사람들의 목숨을 구할 수도 있을 것이다. 매년 120만~130만명의 사람들이 자동차 사고로 죽는다. 자동차 사고 중 90%는 음주 운전 같은 인간의 과실 때문에 발생한다. AI는 절대 술을 마시지 않는다. AI는 환경 보호에도 엄청난 역할을 할 수 있다.
나는 AI의 개발에 반대하는 것이 아니다. 다만AI의 위험한 부분에 대해서도 알아야 하고 안전에도 투자를 하는 것이 선행돼야 한다는 것이다.
사실 다른 모든 산업에서는 이미 그렇게 하고 있다. 자동차의 예를 들어보면 신차를 개발할 때 신차의 안전이 보장되지 않으면 차가 도로를 달리도록 절대로 허용되지 않는다. 그래서 자동차 회사라면 예외 없이 신차 출시 전에 안전에 상당한 투자를 해야 한다는 걸 알고 있다. 신약을 개발하는 제약 회사도 마찬가지다.
나는 역사학자로서, 철학자로서 긍정적 잠재력에 대해서만 얘기하지 않는다. AI의 긍정적 잠재력에 대해서는 이미 일론 머스크나 샘 알트만 같은 기업가들이 충분히 얘기하고 있다.
▶왜 특히 AI에 있어서 그런 투자가 중요한가.
=AI는 지금까지 인간이 개발한 다른 어떤 기술과도 다르다. AI는 스스로 결정하고 새로운 아이디어를 창출해 낼 수 있다는 점이 그렇다.
심지어 라디오, 텔레비전 같은 정보 기술 제품들도 그렇게는 못 한다. 라디오가 스스로 무엇을 방송할지 결정하지 못 하고, 라디오가 새로운 교향곡을 작곡하거나 새로운 연설문을 쓰지도 못 한다. 무엇을 방송하는가는 오로지 인간이 결정해왔다. 라디오는 그저 도구일 따름이었다. 그래서 라디오의 문제를 예상하고 안전한 라디오를 생산해내는 것은 상대적으로 쉬웠다.
하지만 AI는 다르다. AI는 인류 역사상 스스로 결정을 내리고 새로운 아이디어를 창출해낼 수 있는 최초의 도구다. AI는 새로운 음악도 작곡할 수 있고, 정치가의 연설문도 작성할 수 있다. AI는 스스로 결정도 할 수 있다. 아니, 이미 AI 알고리즘이 SNS에서 무엇을 선순위로 올려야 하는지를 결정하고 있다.
AI는 어떤 의미에서는 독립적 행위 주체자이고 그래서 AI가 어떤 새로운 아이디어를 창출하고, 어떤 새로운 결정을 내릴지 예상하기가 아주 어렵다. 그렇기 때문에 AI의 안전성을 확보하는 일은 근본적으로 훨씬 더 어려울 수밖에 없다. AI의 위험성에 대해 어떤 시나리오를 마음속에서 떠올리건 AI는 우리가 예상하지 못했던 일을 할 수 있다.
AI는 우리에게는 완전히 낯선 형태의 지능, '에일리언 인텔리젼스(Alien Intelligence)'라고 할 수 있다. AI는 인공(artificial) 지능의 줄임말이지만, 나는 AI를 외계(alien) 지능의 줄임말이라고 보는 게 더 말이 된다고 생각한다.
왜냐하면 AI는 마치 외계 생명체의 지능인 것마냥 의사 결정 방식이 인간과는 급진적으로 다르기 때문이다. '인공적으로 구현된, 인간과 유사한 방식으로 사고하는 지능이다?' 전혀 그렇지 않다. 그렇기 때문에 우리가 AI가 어떤 결정을 할지, 어떤 아이디어들을 낼 지를 예상하는 것이 아주 어려운 것이다.
▶미디어 얘기가 나왔는데, AI의 또 다른 위험성 중 하나는 가짜뉴스다. 오늘날 이스라엘에서 우리는 많은 가짜뉴스를 이미 목격하고 있다. AI는 전통적 언론을 몰아낼까?
=물론 사라지는 구시대 미디어도 있겠지만, 특정 기술이 언론을 완전히 대체하는 것은 불가능하다고 본다. 왜냐하면 언론의 주요 기능은 컨텐츠의 생산이 아니라 컨텐츠의 큐레이션이기 때문이다.
언론 역시 (AI에) 적응을 해야 살아남는다.
뭐든지 원하는 내용으로 동영상을 만드는 것은 아주 쉽다. 하지만 사람들의 주의력, 관심은 한정적이다. 핵심은 '어떤 것을 사람들에게 보여주느냐' '어떤 콘텐츠를 우선 순위로 소개하느냐'이지, '어떤 동영상, 어떤 음악을 제작하느냐' '어떤 글을 쓰느냐'가 아니다. 핵심은 큐레이션이다. 언론기관들의 최우선 기능은 언제나 큐레이션이었다.
에디터의 일을 예로 들어보자. 예전에도 그랬지만, 주요 TV 뉴스 채널의 에디터라면 한국, 혹은 전 세계에서 오늘 일어난 중요한 일들을 뉴스로 10분 안에 다루어야 한다. 오늘 일어난 사건이 백만개는 될 거다. 가짜뉴스가 아닌 진짜로 일어난 사건들 말이다. 우리에겐 10분밖에 없다. 이중 가장 중요한 아이템 5개는 무엇일까?
사람들은 계속해서 큐레이션을 필요로 할 것이다. 가짜뉴스 때문에 더욱 그렇다. 요즘 사람들은 동영상을 봤을 때 그 동영상이 AI가 만들어낸 가짜일 수 있다는 것을 이미 염두에 두고 있다.
활자도 마찬가지다. 수세기 전에도 이미 글을 쓰고 거기에 따옴표를 쳤다. 예를 들어 "황제가 '전쟁을 하자'고 말했다"고 쓰고 '전쟁을 하자'에 따옴표를 쳤다고 해보자. 모든 사람이 이것만으로는 아무 의미가 없다는 걸 잘 알고 있다. 누구나 종이에 "황제는 '~~'라고 말했다" 심지어 "신이 '~~"라고 말했다"고 쓸 수 있다. 어려운 것은 '누구를 신뢰하느냐?'라는 질문이다.
▶미래세대를 위한 교육은 어떻게 바뀌어야 할까. AI 이전까지 인류는 창의성은 인류만의 힘이라고 믿어왔고 창의력을 강조했다. 하지만 이제는 AI 예술가들이 활약하고 있다.
=교육은 전례가 없는 도전에 직면에 있다. 교육이란 언제나 미래에 관한 것이기 때문이다. 오늘날 우리가 학생들에게 가르치는 것은 10년 후, 20년 후에 중요하고 가치가 있을 것들이다. 다른 분야에서는 지금 현재 일어나는 일에 집중한다. 교육은 미래의 최전선(frontier)에 자리하고 있다.
문제는 인류 역사상 최초로 인류 사회가 앞으로 20년 후에 어떤 모습일지 전혀 알 수가 없다는 것이다. 따라서 20년 후 인류 사회에서 어떤 기술이 필요하게 될지도 전혀 알 수가 없다.
한반도에서 천년 전에 태어났다고 가정해보자. 당시에도 20년 후의 정치 상황이 어떻게 될지는 아무도 몰랐다. 하지만 누구라도 20년 후에 어떤 기술이 필요할지는 다 알았다. 20년 후에 일본이 침략한다고 해도, 역병이 돈다고 해도 쌀농사를 짓는 기술, 집을 짓는 기술, 글을 쓰는 기술 등은 사람들에게 여전히 필요할 것이라는 사실을 알았다.
지금은 상황이 다르다. 20년 후의 미래에 어떤 기술이 필요할지 아무도 모른다. 'AI 시대니까 누군가는 코딩을 해야 할 거야' '그러니까 아이들에게 코딩을 가르치자' 말할 수도 있다. 하지만 이것은 아주 위험한 발상이다. 왜냐하면 이미 AI는 혼자 코딩을 하기 때문이다. 20년 후에는 코딩 기술이 전혀 필요 없거나 아주 최소한으로만 필요하게 될 수도 있다.
좁은 범위의 기술에 초점을 맞추는 것은 아주 위험한 전략이다. 교육의 초점은 배우는 법을 배우는 것(learn how to learn), 즉 새로운 것을 어떻게 배우는지 그 방법을 배우고 변화하는 법을 배우는 데 맞춰져야 한다. 어떻게 하면 유연한 마음을 가질 수 있을지를 중시해야 한다.
20년 후에 세상의 모습에 대해 적어도 한 가지는 분명하다. 세상은 아마 아주 빠른 속도로 끊임없이 변화하고 있을 것이라는 사실이다.
20년 후의 노동 시장을 보면 아마 새로운 기술을 배우는 일을 평생 하고 또 해야 할 것이다. 젊었을 때 배운 것을 평생 하는 일은 없을 것이다. 학습의 기술, 변화의 기술에 초점을 맞추는 게 가장 중요하다. 이는 상당 부분 교육이 감정 지능을 키우는데 집중돼야 한다는 것을 의미한다. 어떻게 하면 유연한 마음을 가질 수 있을까, 끊임없는 변화, 불확실성, 실패에 어떻게 대처할 것인가를 봐야 한다.
사람들은 변화에 적응하기를 어려워한다. 나이가 들수록 더 그렇다. 이미 세상에 대해 알고 있는 것들이 있고, 습득한 기술이 있기 때문이다. 큰 변화가 일어나면 이미 알고 있던 것들을 내려놓아야만 한다. 내가 알던 것들, 할 줄 아는 것들이 점점 무의미해지면서 새로운 기술을 익혀야만 한다. 이런 과정은 나이가 들수록 심리적으로 아주 힘이 든다.
▶미래세대에게 역사를 가르칠 때, 가장 의미 있는 역사적 순간은 뭐라고 보나.
=아이들에게 과거 왕의 이름이나 사건연도를 외우게 하는 것은 의미가 없다. 이게 궁금하면 구글에서 1초만에 검색할 수 있다.
역사학은 과거를 연구하는 학문이 아니라 변화를 연구하는 학문, 세상이 어떤 과정을 거쳐 변화했는지를 연구하는 학문이다. 그리고 이것을 이해하는 것이 어느 때보다도 중요해졌다. 변화의 속도가 어느때보다도 빨라졌기 때문이다.
나는 어린이들을 위한 역사책을 썼는데, 이 책의 주제이기도 하지만, 역사를 배울 때 가장 중요한 점은 변화의 역동을 이해하려고 노력하는 것이다. 특히 21세기에는 모든 역사 수업이 여기에 초점을 맞춰야 한다고 생각한다. 왜냐하면 변화의 속도가 계속 가속화하고 있기 때문이다.
농업혁명은 숲에서 수렵 채집을 하던 인간이 어떻게 쌀을 경작하고 닭이나 소를 키우고 살게 됐는가 하는 변화의 과정인데, 이게 5000년이 걸렸다. 그 어느 누구도 살면서 “나는 이번 생에 농업혁명이 일어나는 것을 내 눈으로 목격했어”라고 말할 수 있는 사람은 없다.
반면 AI 혁명은 5년 만에, 아무리 길게 잡아도 50년 만에 일어난다. 오늘날 어린이들, 지금 8살 정도의 아이들이 80세가 됐을 때 지금 세상과 완전히, 전혀 다를 것이라는 점을 빼면 세상이 어떤 모습일지는 아무도 모른다.
▶최근 어린이·청소년을 위해 쓴 <멈출 수 없는 우리> 2권이 한국에 출간됐다. 책의 주요 주제는 '불평등'이다. 왜 이 주제가 미래세대에게 중요하다고 봤나.
=인류 역사에 걸쳐 사람들은 늘 이 문제로 괴로워했고, 특히 어린이들은 세계 어디에서 살던 이 문제로 괴로워한다. 한국 아이들은 어떨지 모르겠지만 이스라엘에서는 아이들이 “이건 불공평해요!” 얘기하는 걸 매일 듣는다. 왜냐하면 아직 사회의 규범, 법규에 익숙하지 않기 때문이다.
이런 질문들은 불편할 수도 있지만, 좋은 일이기도 하다. 어떤 사회나 불공평을 야기하는 규칙들이 있고 이런 질문들을 통해 문제적인 규칙들이 드러나는 것이다.
예를 들어 불과 얼마 전까지만 해도 사실상 전세계에 걸쳐 여자아이들에게는 학교에 가는 것이 허용되지 않았다. 정치인, 판사, 기자, 종교 지도자가 될 수 없었다. 몇 십 세기 동안 계속된 불공평한 상황이지만, 사람들은 '그저 세상 돌아가는 이치는 원래 그런 것이다' 하고 살았다.
우리가 지배적인 서사에 대해 질문을 하지 않는다면 이런 문제들을 고치는 것이 절대 불가능할 것이다.
◆유발 하라리는…
유발 하라리 히브리대 역사학 교수는 인류의 기원과 미래를 탐구하는 세계적 지성이다. 그의 ‘인류 3부작’ <사피엔스> <호모 데우스> <21세기를 위한 21가지 제언>은 세계적 베스트셀러로, 인류의 약진과 문명 발달사에 대한 대담한 가설과 흥미로운 서술로 학계와 독자들을 열광시켰다. 1300만권을 갖춘 국립중앙도서관에서 최근 10년간 가장 많이 대출된 책이 <사피엔스>였을 정도다. 최근에는 인공지능(AI)이 가져올 충격에 대비해 국제적으로 연대해야 한다는 공개 발언을 이어가고 있다.
한국경제 구은서 기자
유발 하라리 "AI는 인공 아닌 외계지능이다" [단독 인터뷰 전문] - https://v.daum.net/v/20240101183301370