안녕하세요, 크립토노트입니다.
인류가 직면한 글로벌 재앙 및 실존적 위험, 첨단 AI로 인한 실존적 위협을 줄이기 위해 노력하는 비영리 조직(라고 위키피디아에 쓰여있네요)인 Future of Life Institute(삶의 미래 연구소)가 29일 공개서한을 발표했습니다.
공개서한에는 “GPT-4보다 강력한 AI 시스템에 대한 훈련을 반년 간 멈춰라”라는 요구를 담았는데요, 이 서명에는 말 안 해도 유명한 일론 머스크와, 저명한 역사학자 유발 하라리, 스티브 워즈니악, 컴퓨터 공학자 스튜어트 러셀 등 1,300명의 AI 전문가가 참여했습니다.
그들은 현재 진행되고 있는 MS와 OpenAI의 ‘GPT-5’ 훈련을 극도로 경계하고 있는 것으로 보입니다.
이들 전문가들은 ChatGPT가 무서운 속도로 발전하면서, 이 속도로 계속해서 발전했다간 인간마저 통제할 수 없는 수준에 도달하는 것에 경각심을 갖으라고 요구합니다. 실제로, 많은 사람들은 AI의 발전 속도가 가속화되어, 어느 순간의 인간의 통제를 벗어나는 수준에 이르게 되면, 영화 <매트릭스>와 같은 AI 지배 시대가 올 수도 있지 않을까 두려움을 표하기도 하는데요, 그런 맥락에서 보면 이러한 두려움은 전혀 근거가 없는 것은 아닐 것입니다.
삶의 미래 연구소는 AI의 발전 연구를 멈추는 6개월 동안, 다음과 같은 것들을 제도화해야 한다고 이야기합니다.
위험의 통제를 위한 거버넌스 체제 마련
AI 기술 규제 당국 신설, 진위 여부 추적하는데 쓰는 워터마킹 시스템
AI 견제를 위한 공공 자금
강력한 감사 등
어쩌면 이들이 이런 요구를 하는 것은 지극히 자연스러운 일입니다. 기술적 발전이 가속화되면서, 윤리라는 브레이크를 걸 시점이 다가왔다는 이야기를 하는 것이죠.
기술적 발전이 가속화되면, 언젠가 윤리라는 브레이크를 걸어야 한다
브레이크 없는 기술적 발전 끝에는 <매트릭스>와 같은 끔찍한 결과가 도사리고 있을 수도 있습니다. 어쩌면 한편으로, 지금 우리가 AI의 발전을 보고 감탄하고 있는 지금 이 순간이 매트릭스의 가상현실 세계일 수도 있다고 생각하니, 끔찍한 생각이 드네요.
물론 이 점에는 동의를 하지만, 한편으로는 엄청난 potential을 가진 기술을 윤리라는 이름과 제도 아래 묶어버리면, 그것이 인류의 발전을 가로막지는 않을지 의구심이 들고는 합니다. 그들이 주장하는 것은 반년뿐이지만, 그동안에 신설된 규제나 정부 당국의 행동이 어쩌면 AI 기술을 사람의 관심 뒷전으로 밀어내고 있을 수도 있으니깐요.
한 가지 알아두어야 할 점이 있습니다. 이번 서한을 발표한 삶의 미래 연구소는 일론 머스크의 후원을 받는 단체라는 점입니다. OpenAI와 갈등을 빚은 것으로 유명한 일론 머스크의 사례를 두고 보자면, 어쩌면 일론 머스크가 삶의 미래 연구소를 이용하여 국제적으로 OpenAI를 견제하기 위한 움직임을 전개하고 있다는 의혹 역시 제기할 수도 있죠.
물론 AI와 같은 인류에게 절대적으로 큰 가치를 지닌 기술이 소수의 기업에 의해 독점되는 것은 지양되어야 하는 일입니다. 하지만 지금 시기가 제동을 걸기에 맞냐,라는 것에 대해서는 의문이 들지 않을 수 없습니다. 기술이 굉장히 빠르게 진보해나가고 있는 이 시기에, GPT-3에서 놀라움을 느끼기 시작한 지 얼마 되지 않아, GPT-5를 시험해보고 있는 단계에까지 이른 OpenAI에게 제동을 걸고 견제를 본격적으로 한다는 것은, 시기상조가 아닐까 싶기도 합니다.
AI 윤리 위원회를 전면 해체한 MS
얼마 전 MS에서 AI 윤리팀이 전면 해체되었다는 보도가 나왔습니다. MS가 OpenAI와의 협업을 통해 본격적인 대 AI 시대를 주도해 나가려는 상황에서, 윤리팀의 활동이 어쩌면, 이러한 주도권을 갖으려는 움직임을 가로막는 장애요인으로 느낄 수 있기 때문이라고 생각됩니다.
MS가 이렇게 적극적으로 윤리팀까지 전면 해체하면서 AI 발전의 속도를 내는 것에 대해서는, 물론 시장 선점에 대한 욕심이 클 것입니다. 21세기에 들어 애플, 구글에 조금씩 밀리는 모습을 보이던 MS가 다시 한번 시장을 선도할 기회를 잡았기 때문에, 지체할 수가 없다는 것이죠. MS는 이런 기관들과 학자들의 요구에 정반대로 가고 있습니다.
물론, 이런 입장에서 생각한다면 일론 머스크가 비영리 기관을 위시하여 OpenAI를 견제하려고 했다고 생각하기 쉽습니다. (물론 일론 머스크 본인은 그럴 목적일 가능성이 높죠)
그러나 유발 하라리가 해당 뉴욕 타임스에 낸 기고문을 보게 되면, 그가 얘기하려는 것이 어떤 맥락에서 나온 것인지, 충분히 이해가 갑니다.
제약 회사가 안정성 검사를 거쳐야 신약 판매가 가능한 것과, AI는 비슷해야 한다
그는 제약 회사가 엄격한 안정성 검사를 거쳐야만 신약 판매가 허가되는 것과, AI는 비슷해야 한다는 이야기를 했습니다. 인류 역사에서, 어쩌면 가장 중요한 기술이 시장을 장악하기 위한 경쟁에 좌우되서는 안된다는 주장을 펼쳤죠. 그는 인공 지능이 도움이 되는 것은 인정하지만, 그것이 우리 문명의 기초를 무너트리게 된다면 그것은 너무나 위험하고 무의미한 일이라고 설명했습니다. 한국식 표현으로는 ‘빈대 잡으려다 초가삼간 다 태운다’라는 말이 있을 수 있겠네요. 스티브 호킹 박사도 이전에 비슷한 말을 했었죠.
앞으로의 세상은 어떻게 될까요?
물론, 개인적인 생각으로는 이러한 비영리 기관의 성명에 당장 기술적인 발전이 중단되는 일은 없을 것이라고 생각합니다. 그러나, 이것이 만약 제도권에게 어떠한 영향을 주어 AI 기술에 대한 고삐를 틀어쥐어야 한다는 공감대가 형성되게 되면, 그때는 어쩔 수 없이 어떠한 기술적 발전도 압도적으로 이루어지기는 힘들 것으로 보입니다.
여러분을 어떻게 생각하시나요? 지금 시점에서 규제는 들어가야 할까요? 아니면 당분간 기술적 발전이 이루어지게 두어야 할까요?
제 개인적인 생각으로는, 지금의 규제는 시기상조라고 생각합니다.
GPT-4가 엄청난 모습을 보여주었다 한들, 아직 인간과 같은 수준의 AI라고 느끼기에는 무리가 있으니깐요.
그것이 인공지능의 발전 과정 속에서 아직 작은 기술적 진보일 뿐인데, 어쩌면 벌써부터 인공지능에게 규제를 가하게 되면 앞으로의 플랫폼의 대전환과 같은 위대한 진보가 오지 않을까 두렵습니다.
오늘의 이야기는 여기까지입니다. 본의 아니게 생각할 거리를 던져드렸네요. 긴 글 읽어주셔서 감사합니다.
크립토노트 님이 브런치에 게재한 글을 편집한 뒤 모비인사이드에서 한 번 더 소개합니다.