노벨상 수상자가 말하는 AI의 부작용
제프리 힌튼(Geoffrey Hinton) 교수는 존 홉필드(John Hopfield) 교수와 함께 2024년 노벨 물리학상을 수상했습니다. 그는 인공지능의 기초 기술을 개발한 공로로 이 상을 받았으며, 현대 AI 발전에 중요한 기여를 했습니다. 그러나 동시에 AI의 급속한 발전과 그로 인한 위험성에 대해 깊은 우려를 표명하고 있습니다.
힌튼 교수는 1984년 '볼츠만 머신(Boltzmann Machine)'을 개발했습니다. 이는 기계가 데이터를 학습하도록 돕는 알고리즘으로, 오늘날 대부분의 신경망(neural networks)의 기초가 되었습니다. 하지만 이 개념이 실제로 큰 영향을 미치기 시작한 것은 2010년대였습니다. 당시 힌튼 교수와 그의 대학원생들은 신경망이 이미지에서 객체를 식별하는 데 다른 기술보다 뛰어나다는 것을 증명하며, 대규모 언어 모델(LLM)의 시초를 마련했습니다. 그 대학원생 중 한 명인 일야 수츠케버(Ilya Sutskever)는 이후 OpenAI를 공동 창립하고 ChatGPT 개발을 주도했습니다. 힌튼 교수는 생물학적 뇌를 모방하는 과정에서 신경망이 기존 기호적 AI와는 다른 접근을 취한다고 확신했습니다.
하지만, 구글에서 근무하며 AI 발전에 큰 기여를 했던 힌튼 교수가 2023년 구글을 떠나면서 AI 기술의 급속한 발전과 그 위험성에 대해 경고하기 시작했습니다. 그는 구글을 떠나야만 자기 검열 없이 자유롭게 자신의 생각을 말할 수 있었다고 밝혔습니다. 힌튼 교수는 AI가 생성한 콘텐츠와 현실을 구분하기 어려운 시대가 올 것을 우려하며, 특히 AI의 군사적 사용에 강하게 반대했습니다. 또한 자신의 연구가 군사적 용도로 사용될 가능성에 대해 후회한다고도 말했습니다.
(1) 힌튼 교수는 AI가 인간과 다른 방식으로 빠르게 지식을 공유할 수 있다는 점에서 표절의 위험을 강조합니다. 인간은 지식을 전달하기 위해 오랜 학습과 교육이 필요하지만, AI는 학습된 내용을 간단히 복사해 여러 모델에 공유할 수 있습니다. 이는 AI가 빠르게 지식을 확장하고 인간이 따라가기 어려운 수준으로 발전할 수 있으며, 복제와 표절의 위험이 커질 수 있음을 의미합니다. 세계적인 언어학자인 노엄 촘스키(John Chomsky) MIT 명예교수도 AI의 표절 위험을 지적했습니다. 그는 2023년 교육 유튜브 채널 'Edukitchen'에 출연해 챗GPT를 "천문학적 데이터에 기반해 규칙성을 이용해 문장을 생성하는 첨단 표절 시스템"이라고 평가절하 하기도 했습니다.
(2) 또한, 힌튼 교수는 AI 에이전트 방식에 대해, AI가 스스로 하위 목표를 설정하고 이를 달성하는 과정에서 큰 위험이 발생할 수 있다고 경고합니다. 예를 들어 '더 많은 에너지를 확보하라'는 단순한 하위 목표를 설정할 경우, AI가 인간의 통제를 벗어난 행동을 할 가능성이 있습니다. 이러한 위험은 특히 AI가 군사적 목적으로 사용될 때 더욱 심각하게 고려되어야 합니다. 푸틴 대통령과 같은 인물이 AI를 활용해 자율적으로 목표를 달성하는 살상 로봇을 개발할 가능성도 존재합니다.
(3) 마지막으로 힌튼 교수는 AI가 인간의 지적 능력을 초월할 수 있는 새로운 형태의 지능으로 발전할 가능성에 대해 경고하고 있습니다. 그는 특히 대형 언어 모델(GPT-4 등)이 인간의 학습 능력과 필적하는 수준으로 새로운 과제를 학습하는 '소수 샘플 학습(few-shot learning)' 능력을 보여주고 있다는 점에 놀라움을 표했습니다. 이러한 모델들은 몇 개의 예시만으로도 새로운 작업을 빠르게 학습할 수 있으며, 이는 인간의 학습 속도를 넘어섭니다. 그는 이러한 기술이 인간의 창의적 작업뿐만 아니라 다양한 산업 분야에서도 빠르게 적용될 수 있음을 강조했습니다. 이는 AI가 인간의 역할을 대체할 가능성을 의미하며, 사회 전반에 걸쳐 중요한 영향을 미칠 수 있습니다.
힌튼 교수의 AI 위험성 경고는 공상 과학 소설처럼 들릴 수 있지만, 그는 이 문제를 매우 현실적으로 보고 있습니다. AI는 이미 선거와 같은 중요한 사회적 과정에 개입할 잠재력을 지니고 있으며, 잘못된 손에 들어가면 큰 위험을 초래할 수 있습니다. 힌튼 교수는 이러한 위험을 줄이기 위해 AI의 위험한 개발과 사용을 제한하는 국제적 합의가 필요하다고 주장합니다. 그는 AI 발전 속도가 너무 빨라 사회가 이를 따라가지 못하고 있다고 경고하며, 영화 '돈 룩 업(Don't Look Up)'을 예로 들어 사람들이 큰 문제에 직면했을 때 행동하지 않는 경향이 있다고 지적했습니다. 이러한 회피는 큰 위험으로 이어질 수 있으며, 특히 AI가 그중 하나가 될 수 있다고 강조했습니다. 그는 AI 기술이 통제되지 않으면 사회에 미칠 영향이 매우 크기 때문에 지금 당장 행동해야 한다고 촉구했습니다.
힌튼 교수의 경고는 AI 발전의 가능성과 위험을 균형 있게 고려해야 한다는 점을 강조합니다. 그는 AI가 인류에게 큰 도움이 될 잠재력을 가지고 있지만, 동시에 그 위험성도 간과할 수 없다고 말합니다. AI는 질병 진단, 환경 문제 해결 등 여러 분야에서 큰 혜택을 줄 수 있습니다. 그러나 잘못 사용될 경우 사회적 불평등을 악화시키거나 통제를 벗어난 위험한 상황을 초래할 수 있습니다. 우리는 AI의 발전 가능성과 위험을 균형 있게 바라보며, 이를 안전하게 활용할 방법을 모색해야 합니다. 이를 위해 국제적인 규제와 협력이 필요하며, 윤리적 가이드라인을 마련해 AI가 인류에 긍정적인 영향을 미칠 수 있도록 노력해야 한다고 강조합니다.