블랙박스: 인간이 주도권을 잃은 순간

왜 인간은 AI를 통제하기 어려운가?(3): 블랙박스 & 스케일링의 법칙

by 신광은

이번 글은 성격상 '왜 인간이 AI를 통제하기 어려운가'의 세 번째 글이라고 할 수 있다.


이번 글에서 인간이 AI를 통제하기 어려운 이유로 블랙박스의 문제와 스케일링의 법칙에 대해서 살펴보고자 한다. AI가 어떤 판단을 했을 때, 인간은 AI가 왜 그렇게 판단하는지 알 수 없다. 바로 이것이 인간이 AI를 통제하기 어려운 이유다. 그렇다면 왜 인간은 AI가 어떻게 판단하는지 알 수 없는 것일까?


제프리 힌튼, 판을 뒤집다.


2000년에 들어서면서부터 AI의 세 번째 부흥기가 서서히 시작된다. AI의 세 번째 부흥기를 열어젖힌 인물은 바로 AI의 대부라 불리는 제프리 힌튼(Geoffrey Hinton) 교수다. 그의 팀(힌튼 교수와 알렉스 크리제브스키, 일리아 수츠케버 등)이 개발한 AI(AlexNet) 덕에 AI의 새로운 시대가 열리게 되다. 그 공헌 때문에 힌튼 교수는 지난 2024년 노벨 물리학상을 수상하기도 했다. 물리학자가 아닌 인공지능 분야의 공학자가 노벨 물리학상을 받은 것은 그가 최초였다. 하지만 정확히 말하면 그가 아니라 그의 팀이 만든 AI가 노벨상을 받았다고 해야 맞을 것이다.


image.png 출처: 연합뉴스


간략하게 말해서 힌튼 교수 이전의 모든 AI는 규칙 기반(rule based)이었다. 즉 인간이 AI의 규칙을 만들고 그에 맞는 알고리즘 및 코딩을 짜서 AI가 작동하도록 만들었던 것이다. 그런데 이렇게 하면 무수히 많은 예외 상황들을 통제할 수 없다는 어려움이 생긴다. 예컨대, ‘고양이를 인식하는 AI’를 만든다고 해보자. 그러면 개발자는 다음과 같은 식으로 코딩을 할 것이다.


< 고양이 인식 알고리즘 >

입력값 = { '귀의_모양': '뾰족함', '수염': '있음', '눈동자': '세로' }

IF 입력값['귀의_모양'] == '뾰족함':

IF 입력값['수염'] == '있음':

IF 입력값['눈동자'] == '세로':

결론 = "이것은 고양이입니다!"

ELSE:

결론 = "눈동자가 다르니 고양이가 아닙니다."

ELSE:

결론 = "수염이 없으니 고양이가 아닙니다."

ELSE:

결론 = "귀가 안 뾰족하니 고양이가 아닙니다."

END IF


그러나 이러한 코딩으로 만든 AI는 예외적인 고양이 이미지(눈을 감은 고양이, 귀가 접힌 고양이, 수염이 가려진 고양이...)를 인식하는 데 큰 곤란을 느낀다. 이를 보여주는 것이 다음의 잘 알려진 사진이다. 인간은 치와와와 머핀을 구분하는 것이 어렵지 않지만 AI는 이 둘의 차이를 구분하는 데 매우 큰 어려움을 겪는다.


image.png 출처: https://www.aipostkorea.com/news/articleView.html?idxno=438


이렇게 예외적인 상황이 발생했을 때 전통적인 규칙 기반 AI는 예외들에 해당하는 코딩을 일일이 해주어야 했다. 그러나 아무리 인간이 코딩을 열심히 해도 모든 예외적인 상황을 전부 코딩으로 해결할 수 없었다. 또한 그렇게 코딩이 점점 많아지면 나중에는 AI가 무거워져서 속도도 느려지고 작동도 제대로 잘 되지 않게 된다.


제프리 힌튼 교수는 이 문제를 해결하기 위해서 인간의 주도권을 AI에게 념겨버리기로 했다. 한 마디로 패러다임을 뒤집은 것이다. 그리고 이와 함께 AI의 세 번째 부흥의 물결이 일어나기 시작했다. 인간이 코딩하는 시대가 끝나고 AI가 스스로 AI를 만드는 시대가 열리게 되었다. 판이 완전히 뒤집혔다. 그럼 AI가 인간 대신 코딩을 한다는 얘기인가? AI가 직접 AI를 만들기는 하지만 그것을 코딩한다고 하기는 좀 애매하다. 코딩이란 '규칙'을 짜주는 것을 뜻하는데, AI는 규칙을 짠다기보다는 스스로 학습하여 패턴을 찾아낸다고 해야 맞을 것이다. AI는 어떻게 스스로 학습하여 패턴을 찾아내고 이를 통해 AI를 개발하는가?


머신러닝, 딥러닝


AI의 두 번째 겨울은 인간이 규칙을 일일이 코드로 짜주는 데 한계가 있다는 사실이 드러나면서 시작되었다. 그러니까 이 침체기를 벗어나기 위해서는 인간이 더는 직접 코딩을 하면 안 된다. 즉 주도권을 AI에게 넘겨주어야 했다. 앞의 '고양이 인식' AI의 사례를 살펴보자. 전통적으로 인간은 고양이 인식 AI를 개발하기 위해서 고양이의 특징들을 뽑아서 이를 코드로 만들었다. 아래가 그 예이다.


< 고양이 인식 알고리즘 >

입력값 = { '귀의_모양': '뾰족함', '수염': '있음', '눈동자': '세로' .... }


그러나 예상치 못하는 수많은 예외 사례들 때문에 이렇게 고양이의 특질들을 무수히 많은 코딩으로 커버하는 데 한계가 있다는 사실을 발견했다. 이제 인간이 AI에게 '고양이는 이런 거야'라고 설명하는 것을 더는 하지 않기로 했다. 대신 AI에게 고양이 사진을 엄청나게 많이, 가령 10만 장 정도 보여주기로 했다. 여기에는 평범한 고양이뿐만 아니라 온갖 예외적인 고양이들 사진도 다 들어있다. 그리고 AI에게 '네가 이 고양이 사진 10만 장을 보고 고양이 이미지의 공통된 패턴이나 규칙을 찾아내'라고 명령했다. 그런데 신기하게도 AI가 고양이 사진 10만 장을 열심히 살펴보더니 고양이에 관한 패턴을 스스로 찾아낸 것이다. 그러더니 이 전에 본 적이 없던 새로운 사진을 보고도 고양이인지 아닌지 판단할 수 있게 되었다.


이때 고양이 10만 장을 보여주면서 고양이 이미지의 패턴을 찾는 과정을 기계학습(machine learning)이라고 한다. 그런데 기계학습도 종류가 많다. 통계적 기법, SVM, 랜덤 포레스트 등이 기계학습에 속한다. 그중에서 심층신경망을 활용한 기계학습을 딥러닝(deep learning)이라고 부른다. 그럼 심층 신경망은 무엇인가?


image.png AI 생성 이미지


심층 신경망은 인간의 신경망 구조를 본떠서 만든 것으로 입력층과 출력층 사이에 은닉층이 여러 겹 걸쳐 있는 네트워크 구조이다. 실제로는 레이어가 수천에서 수만 개가 될 정도로 매우 많다. 고양이 인식 AI의 경우 입력된 이미지에서 앞부분 레이어들에서는 선과 가장자리를 탐지하게 할 수 있고, 중간 레이어들에서는 고양이의 눈, 코, 입 등 여러 부분적인 모양들을 탐지하게 할 수 있고, 최종 레이어들에서는 전체 객체들의 조합을 탐지하게 할 수 있을 것이다. 이렇게 해서 최종적으로 고양이인지, 아닌지를 판단하게 할 수 있는 것이다. 이렇게 하기 위해서 레이어를 수만 개씩 만들었는데, 이를 심층 신경망이라고 한다.



image.png AI 생성 이미지


빅 데이터(big data)


그런데 이러한 딥러닝은 힌튼 교수의 발명품이 아니다. 심층 신경망의 조상은 퍼셉트론(perceptron)이다. 그리고 퍼셉트론은 1958년 프랭크 로젠블랫이 처음 제안한 것이다. 로젠블랫은 인간의 뉴런의 구조를 본떠서 퍼셉트론 구조를 만들었다. 그는 여러 개의 입력값에 가중치를 곱한 뒤, 그것을 더한 값이 임계치를 넘어갈 때 출력이 되게 하고 임계치를 넘지 않으면 출력이 되지 않도록 했다. 이 구조가 점점 정교해지고 복잡해져서 심층 신경망(deep neural network)으로 발전하게 된 것이고, 그 심층 신경망을 이용한 것이 딥러닝(deep learning)이다. 그런데 초기의 퍼셉트론으로는 기대하는 만큼 성과가 나오지 않았다. 썩 신통치 않았던 것이다.


image.png 출처: https://www.dginclusion.com/news/articleView.html?idxno=614


창발성과 스케일링의 법칙


그런데 제프리 힌튼 교수의 심층 신경망은 놀라운 성과를 거두었다. 대체 무슨 일이 있었던 것인가? 힌튼 교수가 한 일은 규모를 대폭 증가시킨 것이다. 인간의 경우 고양이 사진 2-30장만 보여줘도 고양이를 어렵지 않게 분별할 수 있다. 그런데 초기 신경망 구조를 활용했을 때에는 20-30장 정도의 사진을 보여줘서는 그다지 좋은 성적을 거두지 못했다. 오류율이 너무 높아서 사용하기 어려웠던 것이다. 그런데 제프리 힌튼 교수는 심층 신경망 구조를 정교하게 했을 뿐만 아니라 레이어의 층도 엄청 많이 늘리고, 또 이미지 데이터의 양을 압도적으로 늘렸다. 그런데 놀라운 일이 벌어졌다. 단지 규모를 늘렸을 뿐인데 갑자기 AI가 기가 막히게 작동을 하기 시작한 것이다. 특히 데이터의 양이 많다는 사실이 드러났다. 20-30장이 아니라 10만장씩 때려 넣으니까 되더라는 것이다. 이 때문에 '빅 데이터(big data)'가 얼마나 중요한지를 알게 되었다.


레이어를 늘리고, 매개변수도 늘리고, 데이터의 양을 늘렸더니 전에는 잘 작동하지 않던 AI가 갑자기 작동을 잘하기 시작했다. 단지 규모를 늘렸을 뿐인데 전에 없는 성능이 생겨났다. 이것을 창발성(emergence)이라고 한다. 갑작스럽게 기가 막히게 잘 작동하게 되다니.. 아무리 생각해도 신기하다. 그리고 규모를 늘렸을 때, 갑자기 AI가 이미지도 잘 인식하고, 수학 문제도 잘 풀고, 코딩도 잘하는 창발성이 나타나게 되는 이것을 규모의 법칙, 혹은 스케일링의 법칙(the law of scaling)이라고 한다.


아직도 학자들 사이에는 왜 이러한 창발성이 나타나는지 정확히 알지 못하고 있다. 즉 창발성이 언제, 어떻게, 왜 일어나는지 인간은 예측할 수 없다는 것이다. 그러니까 이 창발적 현상은 인간이 '발명'했다기보다는 우연히 '발견'한 것이다. 마치 콜럼버스가 신천지를 발견했듯이, 혹은 플레밍이 페니실린이라는 물질을 발견했듯이 말이다. 왜 그런 창발적 현상이 나타나는지 우리는 잘 알지 못한다. 다만 그렇게 된다는 사실만 알 뿐이다. 이는 AI가 어느 순간 예상치 못한 능력을 창발적으로 가지게 될지를 알 수 없다는 말이며, 그 순간이 되었을 때 인간은 그것의 작동 원리를 파악할 수 없게 된다는 뜻이며, 앞으로 AI가 얼마나 더 뛰어난 능력을 발휘하게 될지 가늠할 수 없다는 뜻이다. 이것이 인간이 AI에 대한 통제 능력이 약해진 이유다.


매개변수(parameter)


제프리 힌튼의 딥러닝과 함께 주도권은 인간에게서 AI에게로 넘어갔다. 그 이전에 인간은 AI에게 코딩으로 일일이 규칙을 정해주었다. 그런데 AI가 딥러닝 방식으로 빅데이터를 학습할 때, AI가 스스로 데이터의 패턴을 찾아낸다. AI가 찾아낸 데이터의 패턴은 매개변수의 형태로 표현된다.


그럼 매개변수란 무엇인가? AI는 아주 단순하게 말하면 'y = f(x)'라는 함수라고 할 수 있다. 그러니까 AI란 입력값(input)을 박스에 넣으면 박스 안에 있는 규칙에 따라 출력값(output)이 도출되어 나오는 일종의 '마술 상자' 같은 것이다. 가령 어떤 이미지를 넣으면(input) 그것이 고양이 사진인지 아닌지 판단(output)하게 되는 것이다. 자 그런데 다음과 같은 3차 선형 함수식이 있다고 해보자. (물론 현대의 AI는 이러한 단순한 선형 함수가 아니다. 수조 개의 매개변수를 가지는 비선형 함수들의 합성이다. 여기서는 다만 이해를 돕기 위해 간략하게 만든 선형 함수식이다.)


f(x) = ax^3 + bx^2 + cx + d


여기서 a, b, c, d는 임의의 숫자를 넣을 수 있다. 그리고 그렇게 숫자를 넣으면(input) 출력값(output)을 구할 수 있다. 여기서 a, b, c, d를 매개변수(parameter)라고 한다. 그런데 a, b, c는 매개변수 중에서도 가중치(weight)라고 하고 d는 편향(bias)라고 한다. AI를 아주 단순하게 말한다면 f(x)라는 함수다. 그리고 AI를 학습시킨다는 뜻은 a, b, c와 d의 매개변숫값을 정교화한다는 뜻이다.


문제는 지금의 AI는 이 매개변수가 어마어마하게 많다는 것이다. 가령 LLM 모델의 경우 매개변수는 수천억 개에서 수조 개나 된다. 인간은 그 많은 매개변수를 전부 다 파악할 수도 없고, 그 인과관계를 추적할 도 없다. AI를 함수로 본다면 그 함수를 구성하는 매개변수(가중치, 편향)를 전부 알 수 없기 때문에 AI가 어떻게 작동하는지 인간이 이해할 수 없다. 따라서 왜 AI가 그렇게 판단하는지 인간은 알 수 없는 것이다. 그래서 AI를 블랙박스라고 하는 것이다.


가령 2016년, 알파고가 이세돌과 총 5회 대국하면서 제2국 때 두었던 37수는 바둑 전문가들이 이해할 수 없었다. 문제는 알파고를 만든 구글의 딥마인드팀도 왜 알파고가 그렇게 수를 두었는지 알지 못한다는 것이다. 인간이 AI를 만들고 작동을 하기도 하지만 왜 AI가 그런 식으로 판단하는지 더는 알 수 없는 시대에 접어든 것이다. 그리고 이렇게 AI의 세 번째 부흥기가 시작되었다.


AI 부흥기를 위한 3가지 필요조건


AI가 세 번째 부흥기를 맞이할 수 있었던 것은 다음 조건들이 충족되어야 했다.


인터넷


빅데이터가 AI의 성능을 크게 향상한다는 사실을 안다고 하더라도 그 빅데이터를 어디서 모을 것인가? 가령 10만 장의 다양한 고양이 사진을 누가, 어디서, 어떻게 모은단 말인가? 또한 데이터는 잘 정렬되어야지 아무렇게나 수집되어서는 안 된다. 그런데 힌튼 교수의 딥러닝 방식이 상용화되기 위한 결정적인 조건이 충족되었다. 그것은 1990년대 후반부터 인터넷이 본격적으로 상용화되기 시작했던 것이다. 인터넷의 대중적 사용이 늘기 시작하면서 블로그, 포털, SNS, 유튜브 등에 어마어마한 데이터들이 쌓이게 되었다. 그것도 잘 정돈된 데이터들이어서 간단히 손질만 하면 요긴하게 쓸 수 있었다. 인터넷 시대가 AI 발전에서 매우 결정적인 역할을 하게 된 것이다.


GPU


또 하나는 컴퓨팅 파워(computing power), 곧 연산 능력이다. 어마어마한 데이터를 어떻게 학습시킬 것인가? 또한 엄청나게 많은 매개변수가 딸린 AI를 어떻게 작동시킬 것인가? 덩치가 커지니 무거워지고, 무거워지니 속도에 무리가 가기 시작했다. 자칫 처리 속도가 길어지다보면 뻑이 나서 멈춰버릴 수도 있다. 그런데 컴퓨팅 능력을 개선하는 획기적인 방법이 개발되었다. 그것은 바로 GPU 반도체의 활용이다.


unnamed.jpg AI 생성 이미


GPU는 CPU와 함께 컴퓨터에서 반드시 필요한 반도체이다. 그런데 두 반도체는 큰 차이가 있다. CPU는 한 번에 하나씩 순차적으로 계산하고, GPU는 수천 개를 동시에 병렬적으로 계산한다. 순차적 계산은 복잡한 계산에 적합하고, 병렬 계산은 단순 반복 계산에 적합하다. CPU는 소수의 천재 수학자가 어려운 문제를 푸는 것과 같다면, GPU는 수천 명의 초등학생이 동시에 단순 덧셈을 하는 것과 비슷하다. 처음에는 CPU가 훨씬 중요한 역할을 감당했다. 반면에 GPU는 보조적인 반도체에 불과했다. 그런데 게임 산업이 발전하면서 상황이 바뀌었다. 게임에서 모니터에 영상을 구현할 때, 자꾸 끊김 현상, 즉 렉(lag)이 걸리는 현상이 벌어졌다. 그런데 이를 해결하기 위해서 영상의 수십만 픽셀의 빛 신호를 계산하기 위해서 GPU가 큰 역할을 하게 되었다. 한 화면 안에 수십만 픽셀의 빛 신호를 동시에 계산해야 했기 때문에 단순 병렬 계산에 필요한 GPU가 필요하게 된 것이다. 그러면서 GPU가 크게 발전하게 되었다. 당시 대한민국 PC방은 GPU를 생산하는 엔비디아의 훌륭한 고객이었다. 또한 비트코인 채굴기도 GPU를 많이 필요하게 되었는데, 채굴업자들 역시 엔비디아의 훌륭한 고객이 되었다.


제프리 힌튼 교수가 딥러닝에서 방대한 이미지 데이터를 학습할 때에도 GPU를 요긴하게 활용했다. 그의 팀은 GTX 580 2장의 GPU를 사용했다고 알려져 있다. GPU라는 연산 능력, 곧 컴퓨팅 파워가 없었다면 힌튼의 딥러닝은 제대로 작동되기 어려웠을 것이고, 그랬다면 AI의 발전도 상당히 지체되었을 것이다. 즉 빅데이터와 GPU는 바늘과 실 같은 관계인 것이다. 이후 GPU는 AI 개발에서 학습과 추론을 하는 데 필수불가결한 장비가 되었다. 이를 엔비디아 주가 그래프가 잘 보여준다.


트랜스포머 아키텍처


여기에 하나를 더 추가하자면 AI에 필요한 아키텍처인데, 특히 트랜스포머 알고리즘이 개발된 것이다. 이것은 힌튼 교수의 딥러닝보다 조금 늦게 개발되는데, 2017년 "Attention is Al You Need"라는 논문이 공개되면서 만들어지게 된 것이다. 힌튼 교수의 딥러닝이 이미지 인식을 하는 인식형 AI에 큰 성과를 거두기는 했으나 본격적으로 대화형 AI가 등장하기 위해서는 생성형 AI가 등장해야 했다. 그리고 생성형 AI의 출현을 위해서 반드시 필요했던 아키텍처가 바로 어텐션 메커니즘이 기반한 트랜스포머이다. 챗GPT에서 T는 바로 이 트랜스포머 아키텍처를 가리킨다. 이 아키텍터로 챗GPT가 개발되어 2022년 10월 공개되었다. 그리고 실로 어마어마한 대격변이 일어나고 있다.


에필로그


이상에서 살펴보았듯이 2000년대 이후 AI의 세 번째 부흥의 물결이 몰아닥치고 있다. 그리고 이 세 번째 물결에서 대단히 중요한 것은 규칙 기반 AI가 데이터 기반 AI로 패러다임이 변하게 되었다는 것이다. 이것은 바꿔 말하면 이제 더는 인간이 AI에 대한 주도권을 가지지 못하게 되었다는 뜻이다. 인간은 왜, 어느 순간 AI의 창발적 현상이 나타나는지를 알 수 없다. 또한 AI의 방대한 파라미터를 다 알지도 못하고, 그 인과 관계를 추적할 수도 없다. 나아가 이는 AI가 앞으로 어떤 식으로 행동을 하게 될지도 충분히 예상하기 어렵게 되었다는 뜻이기도 하다. 가령 미 공군 드론이 적의 지대공 미사일이 아니라 먼저 본부를 폭격한다거나, AI 모델을 업그레이드하려고 하자 AI가 개발자의 불륜 사실을 폭로하겠다고 위협한다거나 하는 AI 정렬(alignment)의 문제가 생겨날 수 있는 것이다. 이 모든 것들이 의미하는 바는 오늘날 AI가 어떤 판단을 내릴 때, 인간이 더는 왜 AI가 그렇게 판단하는지 알 수가 없다는 것이다. 그래서 AI는 거대한 블랙박스인 것이다. 지금까지의 AI의 역사는 한 마디로 인간이 점차 주도권과 장악력을 상실해 온 역사라고 할 수 있다.



작가의 이전글AI 발전의 간단한 역사