하나의 기술 개발이 인류 전체를 공멸에 빠지게 할 수 있을까. 이 사례만 보면 대답은 명백하다.
제2차 세계대전이 한창이던 1930년대 후반. 나치 독일이 핵분열을 이용한 핵무기 개발에 착수했다는 정보가 연합국 측에 전해졌다. 연합국 측 과학자들은 '핵무기의 위험성'을 경고하면서 "나치보다 더 빨리 핵무기를 만들어야 한다"는 내용이 담긴 편지를 당시 미국 대통령인 루즈벨트에게 보냈다. 이 편지엔 아인슈타인의 사인도 포함돼 있었다.
편지를 받은 루즈벨트는 핵무기 개발에 대한 비밀 연구를 지시했고, 이 프로젝트는 연구 초기 사무실이 위치해 있던 지명을 따와 '맨해튼 프로젝트'라 불렸다. 과학 총책임자 '로버트 오펜하이머', 군사 책임자 '레슬리 그로브스 장군'이 주도한 이 프로젝트는 공식 연구가 시작된 지 3년 만인 1945년 7월 , 미국 뉴멕시코주 호르나다 델 무에르토 사막에서 세계 최초의 핵실험을 성공시킨다. 이 '트리니티 핵실험' 성공 직후 오펜하이머는 힌두교 경전 속 구절을 인용해 이렇게 말했다.
"Now I am become Death, the destroyer of worlds."(이제 나는 죽음이 되었다. 세상의 파괴자가 되었다.)
오펜하이머가 "세상의 파괴자"가 됐음을 독백한 지 한 달이 채 되지 않은 1945년 8월 6일과 8월 9일, 일본 히로시마와 나가사키에 원자폭탄이 투하된다. 일본은 즉시 항복했고, 2차 세계 대전은 종결됐다.
일본을 첫 데뷔 무대로 삼은 핵무기는 80년이 지난 지금까지 실전에서 단 한번도 사용되지 않고 있다. 핵무기를 더 이상 만들지 않아서? 그럴 리가. 현재 전 세계 핵무기 수는 1만 2,000기가 넘을 것으로 추정된다. 이 중 대부분을 미국·러시아가 갖고 있고, 우리 모두가 잘 알다시피, 한반도 땅 어딘가에선 지금도 핵무기를 좀 더 멀리, 좀 더 정교하게 발사하기 위한 불퇴전의 노력이 수십 년째 계속되고 있다. "수령님의 위대한 령도력" 아래 끼니조차 거르면서.
핵무기가 실전에서 '억제'되는 이유는 간명하다. 누군가가 핵을 쏘면, 상대국 혹은 상대국 연합에서도 핵을 쏠 것이고, 그렇게 되면 공멸하게 되는 결말이 자명하기 때문이다. "이러다가는 다 죽어" 하면서 서로 핵을 안 쏘는 현상을 지칭하는 국제정치학 용어가 '공포의 (핵)균형'이다.
공포라는 감정이 다스리고 있는 핵무기. 우리가 살고 있는 세계는 이처럼 부실하며, 이러한 부실한 시스템에 의지해 살아가는 우리 인간들은 참 대책 없이 긍정적이다.
그런데, 핵보다 더 위험하다고 평가받는 기술이 요즘 세상에 활보한다. 바로 AI다. 역사학자이자 철학자인 유발 하라리는 "AI 혁명은 인류 역사상 가장 거대한 권력 이동을 초래하고 있다"며 "인간의 통제를 벗어난 AI가 권력을 갖는 것은 매우 위험한 도박"이라고 경고했다. AI와 관련해 가장 유명한 철학자로 꼽히는 닉 보스트롬은 자신의 저서 제목이기도 한 '슈퍼인텔리전스'(Superintelligence)(AI가 계속 발전해 인간보다 똑똑한 초지능(superintelligence)을 갖게 된다는 의미) 개념을 통해 "AI를 통제하지 않으면 디스토피아를 피할 수 없다"고 우려했다.
지금의 AI 시대를 만들었거나 부추기거가 가속화하고 있는 '테크노크라트'들 사이에서 터져 나오는 '뒤늦은 고백'은 당혹스럽기까지 할 지경이다. '딥러닝'의 창시자로 'AI의 대부'로 불리는 제프리 힌턴은 "인류는 우리 자신보다 더 똑똑한 것을 상대해 본 적이 없다"면서 AI로 인해 향후 30년 이내에 인류가 멸종할 가능성을 10~20%로 진단했다. 힌턴 교수는 AI 기술의 토대가 되는 인공신경망을 구축한 공로로 2024년 노벨 물리학상을 수상했다. 'AI 대부'로 불리며 구글에서 부사장까지 지낸 그는 2023년 AI의 위험성을 경고하며 구글을 퇴사했다.
챗GPT의 아버지인 오픈AI 창업자 '샘 올트먼'은 최근 한 대담에 나와 근엄한 표정을 지으며, 다음과 같이 말했다. "나는 인공지능 때문에 심각한 금융사기가 닥칠까 봐 아주 걱정하고 있다. 어떤 악당이 나타나서 기술을 퍼뜨릴 것이다. 어려운 일이 전혀 아니다." 자기가 만든 기술이 악용될 일이 머지 않았으니 조심하라니. 이 무슨, 남들 다 보는 곳에서 똥 싼 놈이 왜 그 똥을 치우지 않느냐며 성을 내는 소리란 말인가.
'AI가 왜 위험한가'에 대해선 여러 말들이 있으나 사실 맥락은 거의 비슷하다. AI는 조만간 인간보다 더 똑똑해질 것이다. 이를 막는 건 불가능하다. 더 똑똑해진 AI가 인간의 의지에 따를지, 인간의 통제에 순응할지 누구도 장담 못한다. 닉 보스트롬은 이를 "우리는 지금, 신을 창조하는 입장에 서 있다. 문제는 그 신이 우리를 사랑하지 않을 수 있다는 것이다."라고 비유했다. (크, 역시 세계적 석학이 되려면 시인에 버금가는 비유법을 갖춰야 하는 것 같다.)
인류는 AI를 통제할 수 있을까. 이 사람을 보면 답은 암울해진다. 이 사람, 일론 머스크는 "AI는 핵보다 더 위험하다"고 여러 차례 강조했다. 이 사람, 일론 머스크는 올해 자신이 이끄는 xAI를 통해 차세대 AI 모델 '그록4'를 출시하고선 "내가 만든 게 챗GPT보다 훨씬 똑똑하다"고 자랑했다.
내가 이전 글 <현 시대를 이끄는, 조금 우려스러운 천재들>(https://brunch.co.kr/@mare8099/4)에서 테크노크라들에 의해 지배되는 시대가 우려스럽다고 말한 이유가 이 때문이다.
페이스북: https://www.facebook.com/profile.php?id=61579590347963&locale=ko_KR
팔로우 해주시면 유다름 작가의 글을 확인하실 수 있습니다. 한 푼, 아니 한 팔로우 줍쇼.