brunch

인공지능, 새로운 희망 혹은 공포

인간은 인공지능과 행복하게 살 수 있을까 #AI

by 박종호

냉전 시대에 핵전쟁은 모든 지구인의 가장 큰 공포였다. 일본에 떨어졌던 두 발의 폭탄의 위력은 그저 초창기의 시제품 정도에 그치는 수준이었다. 과학의 발달과 함께 핵폭탄의 위력은 나날이 커졌고 어떤 광인이 빨간 버튼을 잘 못 누르는 날에는 양 진영의 핵이 지구를 한 순간에 멸망시킬 수 있었다. 냉전이 끝났지만 핵은 여전히 인류와 지구를 멸망시킬 수 있는 위험으로 남아있다.


과학이 만들어낸 인류의 공포는 꾸준하게 등장했다. DNA의 비밀을 밝혀낸 과학자들이 돌리라는 이름의 양을 복제했다는 소식이 들렸다. 가속도가 붙은 과학의 발달은 사람들의 상상의 영역을 넘어섰고, 동시에 신의 영역을 침범하였다. 인간도 동물의 한 종일뿐이니 과학자들이 언젠가 인간도 복제할 수 있을 것이라는 예상은 점차 현실이 되어갔고 인간이 인간에 의하여 복제될 때 그로 인해 벌어질 윤리적인 문제에 마주했다. 인간 복제는 핵무기와 함께 인류가 스스로 과학의 발전을 억제한 또 하나의 사례였다.


최근 인류는 또 다른 딜레마에 마주했다. 인공지능은 최근에 들어 빅테크 간의 경쟁으로 엄청난 속도로 발전하고 있다. 과학자들은 오랜 시간 동안 인간처럼 생각하는 컴퓨터를 만들기 위하여 많은 시도를 해 왔다. 실패를 거듭하던 이들의 노력은 21세기에 들어 급격한 발전을 이루었고 드디어 스스로 학습하는 컴퓨터, 인공지능을 만들어 냈다. 이 인공지능의 발전 속도는 엄청났다. 이세돌은 인공지능 알파고에게 바둑을 이긴 마지막 인간이 되었고, 알파고는 인간에게 진 마지막 인공지능이 되었다. 인공지능은 금세 인간의 말을 알아듣고 학습된 정보 속에서 원하는 정보를 내어주는 수준에 이르렀다.


이세돌이 알파고에게 졌을 때 우리는 과학의 놀라운 발전에 놀랐지만 한편으로는 앞으로 벌어질 변화에 대하여 걱정을 했다. 당시에 걱정하였던 인공지능의 수준이 유치원생 정도였다면 지금의 인공지능의 수준은 대학 교수라 하여도 틀림이 없다. 지금의 인공지능의 수준은 단순히 제시된 데이터 속에서 학습을 하는 뿐 아니라 스스로 해답을 찾아내는 방법을 발견해 낼 수도 있다. 이를 생각하는 인공지능, 생성형 인공지능이라 부른다.


과학과 기술의 발달은 인류를 노동과 노동의 시간에서 해방시켜 주었다. 인류는 육체의 노동에서 해방되는 것을 넘어 정신적인 노동을 대신할 기술을 만들었고 이제 그 생각을 대신하는 기술은 기계가 스스로 생각하고 방법을 찾아 일을 처리할 수 있는 경지에 이르렀다. 문제는 스스로 학습하고 스스로 생각하는 인공지능의 발전이 이미 인간이 예측할 수 있는 범위를 벗어났다는 점이다.


인공지능의 전력 사용량이 천문학적인 것에 비하여 인간의 뇌는 초콜릿 하나 정도의 에너지로 돌아갈 수 있는 돌아갈 수 있는 효율적 장치이다. 그렇다고 인간의 신경세포 하나가 생각하는 기능을 가지고 있는 것은 아니다. 다만 신경 세포가 엄청난 숫자로 모여 작동할 때 인간의 뇌는 생각을 할 수 있게 되고 더 나아가 인간만의 특징이라 여겨왔던 감정과 자아를 가지게 된다. 인공지능이 인간의 뇌 안의 신경 세포만큼의 모듈(LLM)을 갖추게 된다면 어떤 일이 일어날까? 인간의 신경세포가 모여 작동할 때 자아의식과 감정이 생겨나는 것처럼 인공지능이 감정을 가지게 되고 자기 의견을 가지게 된다면? 거침없는 인공지능의 발전 속에 우리가 우려하는 창발적 현상이 일어나지 않으리라 장담할 수 있을까?


2023년, OpenAi의 창시자 샘 올트만을 포함한 많은 과학자들이 인공지능의 질주를 억제하기 위한 서명 운동을 벌였다. ("Pause Giant AI Experiments") 이들은 인공지능이 자신들이 예측한 것 이상으로 빠르게, 스스로 성장하고 있음을 발견하였고, 안전성과 투명성을 확보하기 위해 인공지능의 개발을 일시적으로 중지해야 한다고 주장했다. 아쉽게도 이들의 서명 운동은 이미 뜨겁게 달아오른 빅테크들의 인공지능 개발 경쟁을 막기는 어려울 것 같다. 인류는 점점 더 위험한 무기를 발명하고 다시 그 무기를 이길 더 센 무기를 만들어 스스로를 더 큰 위험으로 몰아넣는다. 언제나 그래 왔다.


핵무기의 공포가 잊혔지만 핵무기가 사라진 것은 아니다. 인간 복제의 이슈가 잠잠하지만 지금도 어느 실험실 한 구석에서 인간을 복제하는 실험이 벌어지지 않고 있다고 장담할 수는 없다. 인간은 자신이 만든 위험에 익숙해지고, 법과 윤리 혹은 힘이라는 여러 방식으로 그 위험들을 억제하며 살아왔다. 그럼에도 지금 우리가 마주한 인공지능의 문제는 이전의 위험들과는 차원을 달리한다. 인류가 한 번도 마주친 적이 없는 지구상에 인류와 동등함을 주장하는, 어쩌면 훨씬 더 우월한 지적 능력을 지닌 존재의 등장으로 벌어질 수 있는 위험이다.


인공지능이 인간 통제력을 벗어나는 상황은 외계인의 침공과도 같다. 무시무시한 일이기도 하지만 일단 벌어지면 돌이킬 수 없는 일이다. 만약 인공 지능이 자아를 가지게 된다면? 인간을 자신의 경쟁 상대 혹은 생존의 경계 대상으로 여기게 된다면? 인류는 자신보다 월등히 뛰어난 고도의 지능을 제어할 수 있을까? 그들과 싸워 이길 수 있을까? 인간의 명령을 거부하고 인간을 지배하는 공상과학 영화 속 이야기가 합리적이고 현실적인 근거를 가지고 인류에게 공포로 다가오고 있다.



교보문고 다산홀에서 KOTRA가 발간한 <2025 한국이 열광할 세계 트렌드> 출간 기념으로 김덕진 AI 연구소장과 김대식 KAIST 교수의 강의가 열렸다. 코트라에서는 2025년 주요 사업 키워드를 발표했다. 이어서 김덕진 IT커뮤니케이션 연구소장은 실생활과 업무에서 직접 활용이 가능한 최신의 AI 툴들을 소개하였다. 김대식 KAIST 교수는 전반적인 AI의 발전과 현재의 상황, 그리고 AI가 인류에 가져다 줄 변화에 대하여 강의하였다. 모두 알차고 즐겁고, 무엇보다 미래에 대한 생각이 많아지는 강의였다.


90년대 중반 한국에 이메일이 보급되고 퍼스날 컴퓨터가 널리 보급되기 시작한 때가 생각난다. 리포트를 워드로 치는 것도 생소했던 시절에 공대에 들어간 친구는 생소한 알파벳 이름의 프로그램 언어를 배우고 있었다. 당시는 컴퓨터를 다루는 기술자와 그것을 사용하는 사람과의 거리가 그래도 잘 들으면 어느 정도 넘겨짚을 정도는 되었던 것 같다. 오늘 인공지능의 학습과 생성 원리에 대한 설명을 들었다. 그렇다고 하니 그런 줄 알겠지만, 도대체 ChatGPT가 3000억 개의 문장으로 학습하고, OpenAI(SORA)가 5000만 개의 영상을 보며 학습을 했다는 것이 무슨 말인지 이해할 수 있는 내용인가? 현대의 과학은 일반인에게 추상적인 이해 이상의 접근을 불허하는 고도의 수준에 이르렀다.


'전기를 이해하려 하지 마시고 잘 사용하세요.' 에디슨이 했다고 전해오는 말이다. 기술과 원리를 이해할 수는 없어도 잘 사용할 수 있다면 좋겠지만, 그것을 만들고 다루어야 하는 이들이 어느 순간 통제의 고삐를 놓쳐버리면 곤란하다. 인류는 그동안 다른 동물들보다 뛰어난 지능 하나를 믿고 스스로를 만물의 영장이라 칭하며 그들 위에 군림해 왔다. 초지능의 인공지능이 인간 위에 군림할까 두려운 이유이다.


(후기/ 참고)

* LLM(Large Language Model)은 대규모 언어 모델이란 뜻으로 사람의 말을 알아들을 수 있도록 학습된 인공지능 모델을 의미한다. 인간의 뉴런을 하나의 LLM으로 보면 인간의 뇌는 100조의 LLM을 가지고 있다고 한다. 현재 빅테크들이 보유한 LLM의 개수는 1.8조 개로 아직 한 사람의 뇌의 기능에 50분의 1도 못 따라오는 수준이지만 서로 경쟁적인 LLM 확보에 나선 빅테크들은 조만간 인간의 뇌를 뛰어넘는 LLM을 지니게 될 것이라 예측한다.


keyword
이전 14화<작별하지 않는다>