빅뱅, 다층신경망의 등장
혹한의 빙하기에도 과학자들은 포기하지 않았다. 1986년 제프리 힌턴과 동료들은 '역전파(backpropagation)' 알고리즘을 발전시켰다. 이것은 다층 신경망을 효과적으로 학습시키는 방법이었다. 퍼셉트론의 한계를 극복할 열쇠였지만, 처음에는 큰 주목을 받지 못했다.
먼저 다층 신경망이 무엇인지 알아보자. 사람의 뇌에는 약 1,000억 개의 신경세포가 있다. 뇌 신경세포는 수많은 가지를 뻗고 있다. 하나의 신경세포의 가지가 다른 신경세포의 가지와 연결되는 구조다. 이렇게 뇌 신경세포의 가지들이 연결된 접점을 시냅스라고 한다. 실제로 정보가 유입되고 흘러가는 통로가 시냅스다. 인간의 뇌 신경세포의 시냅스는 약 150조 개 이상으로 알려져 있다.
퍼셉트론은 사람의 뇌 신경세포 하나만 모방했다. 그래서 직선 하나로 패턴을 나누는 방식이었다. 하지만 인간의 신경망은 다층 신경망이고, 여러 개의 신경세포를 층층이 쌓아 올린 구조다. 첫 번째 층이 간단한 패턴을 찾고, 두 번째 층은 그것들을 조합해 더 복잡한 패턴을 찾고, 세 번째 층은 더욱 추상적인 개념을 학습한다. 마치 복잡한 문제를 여러 단계로 나눠 푸는 것과 같다.
예를 들어 고양이 사진을 인식하는 과정을 생각해 보자. 첫 번째 층은 선과 곡선 같은 기본 요소를 찾아낸다. 두 번째 층은 이것들을 조합해 귀와 눈 같은 부분을 인식한다. 세 번째 층은 이 모든 정보를 종합해 '고양이'라는 개념을 파악한다. 우리의 뇌도 이런 방식으로 작동한다.
문제는 이렇게 복잡한 다층 신경망을 어떻게 학습시키느냐는 것이었다. 각 층마다 수많은 연결이 있고, 어떤 연결을 얼마나 조정해야 할지 알아내기가 매우 어려웠다.
그렇다면 역전파는 무엇일까? 학생이 수학 시험을 보고 틀린 문제가 있다고 하자. 좋은 공부 방법은 풀이를 쓴 답안지를 거꾸로 추적하는 것이다. 끝에서부터 풀이 과정을 살피면서 어디서 실수했는지 찾아내는 것이다. "아, 마지막 계산이 틀린 이유가 중간 단계에서 부호를 잘못 썼구나." 역전파도 마찬가지다. AI가 잘못된 답을 내놓으면, 그 오류를 마지막 층에서부터 거꾸로 추적해 각 층의 연결을 조금씩 수정한다. 이렇게 반복하면서 점점 정확해진다.
제프리 힌턴은 역전파를 발전시킨 후에도 20년 가까이 주류 학계의 냉대를 받았다. 한 학회에서는 그의 발표를 "시간 낭비"라고 혹평하기도 했다. 하지만 그는 "신경망은 반드시 성공할 것"이라는 믿음을 버리지 않았다. 이 집념이 결국 AI 시대를 열었다. 역전파는 다층 신경망 학습의 난제를 해결했지만, 당시 컴퓨터 성능의 한계와 학습 데이터 부족으로 그 진가를 바로 발휘하지는 못했다. 하지만 이 조용한 변화는 훗날 AI의 폭발적 성장을 가능하게 한 씨앗이었다.
딥러닝 혁명
2006년, 힌턴 교수는 '딥러닝'이라는 개념을 제시했다. 신경망을 더 깊게, 더 많은 층으로 쌓으면 더 복잡한 패턴을 학습할 수 있다는 것이었다. 그는 신경망을 효과적으로 학습시키는 새로운 기법들을 개발했다. 이 선구적 업적으로 힌턴 교수는 2024년 노벨 물리학상을 받았다.
왜 '깊은' 것이 중요할까? 인간의 뇌를 예로 들자. 눈으로 들어온 시각 정보는 뇌의 여러 층을 거치며 처리된다. 첫 번째 층은 단순한 선과 모서리를 감지한다. 두 번째 층은 이를 조합해 도형을 인식한다. 세 번째 층은 얼굴이나 사물을 구별한다. 더 깊은 층일수록 더 추상적이고 고차원적인 개념을 다룬다.
딥러닝은 바로 이 원리를 모방했다. 얕은 신경망이 단순한 패턴만 학습한다면, 깊은 신경망은 층층이 쌓인 추상화를 통해 복잡한 개념을 이해할 수 있다. 고양이 사진을 보여주면, 첫 층은 털의 질감을, 중간층은 귀와 수염을, 마지막 층은 '고양이다움'이라는 추상적 개념을 학습한다. 드디어 AI도 고양이 이미지를 쉽게 구별하는 능력을 갖추게 되었다.
2012년은 AI 역사의 분기점이었다. 힌턴의 제자들이 만든 '알렉스넷'이 이미지 인식 대회에서 경쟁자들을 압도적으로 제쳤다. 오류율을 무려 10% 이하로 낮췄다. 알렉스넷의 성공 뒤에는 '이미지넷' 데이터셋을 만든 수만 명의 작업자들이 있었다. 그들은 3년간 1,400만 장의 사진을 일일이 분류했다. 이 지루하고 방대한 작업 없이는 알렉스넷도 탄생할 수 없었을 것이다.
알렉스넷의 성공 비결은 깊은 신경망과 함께 GPU라는 강력한 컴퓨터와 방대한 이미지 데이터가 결합되었기 때문이었다. IT 업계는 충격에 빠졌다. 놀란 구글, 페이스북, 마이크로소프트가 AI 연구에 수천억 원을 쏟아붓기 시작했다.
2017년, 구글 연구진은 '트랜스포머'라는 새로운 신경망 구조를 발표했다. 이것은 언어를 이해하는 방식을 근본적으로 바꿨다. 기존 방법은 문장을 순차적으로 읽었지만, 트랜스포머는 문장 전체를 한꺼번에 보고 단어들 사이의 관계를 파악했다. 이것이 오늘날 ChatGPT 같은 거대언어모델 AI의 기반이 됐다.
학습방법의 진보
딥러닝이 성공한 또 다른 이유는 학습 방법의 진보였다. 초기 AI는 사람이 일일이 라벨을 붙인 데이터가 필요했다. "이 사진은 고양이", "이 문장은 긍정적" 같은 정답을 수만, 수십만 번 가르쳐야 했다. 이것을 '지도학습'이라 부른다.
하지만 '자기지도학습'이라는 새로운 방법이 등장했다. AI가 스스로 문제를 만들고 푼다. 예를 들어 문장에서 한 단어를 지우고 "이 빈칸에 들어갈 단어를 맞춰봐"라는 식으로 학습한다. 이미지의 일부를 가리고 나머지 부분을 복원하는 연습을 한다. 정답 라벨 없이도 수십억 개의 데이터에서 학습할 수 있게 된 것이다.
'강화학습'도 중요한 돌파구였다. 알파고가 사용한 방법이다. AI에게 명확한 정답을 알려주지 않고, 게임에서 이기면 보상을 주고 지면 벌을 준다. AI는 수백만 번의 시행착오를 거치며 스스로 최선의 전략을 발견한다. 마치 아이가 자전거를 배우면 칭찬을 받듯이 잘하는 부분을 강화하는 방식이다.
한 번 배운 것을 다른 곳에 응용하는 '전이학습'이라는 기법도 획기적이었다. 거대한 데이터로 학습한 AI의 지식을 다른 문제나 분야에 응용하는 것이다. 예를 들어 수백만 장의 일반 사진으로 학습한 AI는 의료 영상을 분석하는 데도 빠르게 적응할 수 있다. 처음부터 다시 배울 필요가 없는 것이다. 이것은 인간의 학습과 매우 유사하다. 수학을 배운 사람은 물리학을 더 빨리 배운다.
하드웨어 혁신
아무리 좋은 알고리즘이 있어도 실행할 컴퓨터가 없다면 무용지물이다. 딥러닝의 성공에는 하드웨어의 비약적 발전이 결정적이었다.
GPU의 발견은 우연한 행운이었다. 원래 게임 그래픽을 처리하기 위해 만들어진 GPU는 수천 개의 단순한 계산을 동시에 수행하는 데 최적화되어 있었다. 이것이 신경망 학습에 딱 맞았다. 2009년 연구자들이 GPU로 신경망을 학습시키자 속도가 무려 100배 빨라졌다. 며칠 걸리던 학습이 몇 시간으로 단축됐다.
아이러니하게도 AI 발전의 숨은 공신은 게임 산업이었다. 수백만 게이머들이 더 화려한 그래픽을 원했고, 그 수요가 강력한 GPU 개발을 이끌었다. 이 GPU가 알고 보니 AI 학습에 완벽했던 것이다. 누군가는 농담처럼 말한다. "ChatGPT는 유명 게임인 '리그 오브 레전드(LOL)' 덕분에 탄생했다"라고.
GPU의 성공을 본 기업들은 AI 전용 칩 개발에 뛰어들었다. 엔비디아는 AI에 특화된 GPU를 내놓았고, 구글은 '텐서 프로세싱 유닛'이라는 맞춤형 칩을 만들어 알파고와 검색엔진에 사용했다. 이제는 AI 학습에 수만 개의 GPU가 연결된 슈퍼컴퓨터가 사용된다.
클라우드 컴퓨팅도 판도를 바꾸는 요인이었다. 과거에는 AI 연구를 하려면 수억 원짜리 컴퓨터를 사야 했다. 이제는 아마존, 구글, 마이크로소프트의 클라우드에서 필요한 만큼 컴퓨팅 자원을 빌려 쓸 수 있다. 대학원생도, 스타트업도 거대한 AI 모델을 학습시킬 수 있게 됐다. 클라우드 컴퓨팅은 AI 민주화의 촉매제 역할을 하고 있다.
데이터는 AI의 연료다.
세계적인 명품 스포츠 카인 포르셰가 쭉 뻗은 도로를 질주하는 모습은 매혹적이다. 그런 포르셰에게 기름이 없다면 질주는커녕 그냥 고철 덩어리로 서 있을 뿐이다. AI를 자동차에 비유하면, 알고리즘은 엔진이고 데이터는 연료다. 아무리 좋은 엔진이 있어도 연료가 없으면 달릴 수 없는 포르셰처럼 데이터 없는 AI도 같은 처지다.
인터넷과 스마트폰의 보급은 데이터 대폭발을 가져왔다. 매일 50억 번의 구글 검색, 10억 시간의 유튜브 시청, 수억 장의 인스타그램 사진이 업로드된다. 이 모든 것이 AI의 학습 재료가 됐다. 사람들은 자발적으로 매초마다 엄청난 데이터를 온라인 공간에 올린다. AI에게 무한의 연료가 실시간으로 공급되는 셈이다.
데이터의 질도 중요했다. 연구자들은 체계적으로 정리된 고품질 데이터셋을 만들기 시작했다. 이미지넷 프로젝트는 1,400만 장의 사진을 카테고리별로 분류했다. 이것이 컴퓨터 비전 연구의 표준이 됐다. 커먼 크롤 프로젝트는 웹페이지 수십억 개를 모아 언어 모델의 학습에 사용했다. 데이터는 양적으로 폭발하고 질적으로도 개선되었다.
흥미롭게도 AI는 이제 스스로 데이터를 생성하기도 한다. 알파고의 후속인 알파제로는 인간의 기보 없이 스스로와 수백만 번 대국하며 바둑을 마스터했다. AI는 이제 인간이 만든 데이터를 넘어 스스로 데이터를 생성하며 진화하고 있다.
이 모든 발전이 합쳐져 오늘날의 놀라운 AI를 만들어냈다. ChatGPT는 2022년 11월 공개 5일 만에 100만 명이 사용했고, 두 달 만에 1억 명을 돌파했다. 인류 역사상 가장 빠르게 성장한 서비스였다. DALL-E는 "황혼 무렵 해변을 걷는 로봇"이라는 말만 듣고 상상 속 이미지를 그려낸다. 미드저니로 만든 AI 그림이 미술 대회에서 1등을 하며 논란을 일으켰다.
AI는 암세포를 99% 정확도로 판별하고, X-레이에서 인간 의사가 놓치는 미세한 이상을 찾아낸다. 딥마인드의 알파폴드는 단백질 구조를 예측해 50년 된 생물학 난제를 해결했다. 신약 개발에 걸리던 10년의 시간이 2-3년으로 줄어들고 있다. 자율주행차는 수백만 킬로미터를 사고 없이 달린다. AI는 기후 변화를 예측하고, 에너지 소비를 최적화하며, 농작물의 병충해를 조기 발견한다.
아직도 배고픈 AI
AI는 여전히 한계가 있다. 상식적 추론에 약하다. "얼음은 뜨거운가?"라는 질문에는 정확히 답하지만, "얼음을 전자레인지에 돌리면 어떻게 되나?"라는 질문에는 헷갈린다. 또 AI가 왜 그런 판단을 했는지 설명하기 어렵다. "이 환자는 암입니다"라고 진단하지만, 어떤 특징 때문인지 명확히 말하지 못한다.
무엇보다 엄청난 에너지를 소비한다. GPT-3 같은 대형 언어 모델 하나를 학습시키는 데 드는 전기는 일반 가정 100채가 1년간 사용하는 양과 맞먹는다. AI는 닥치는 대로 전기를 먹어 치우지만, 여전히 배가 고프다.
AI가 만든 가짜 뉴스와 딥페이크는 진실을 위협한다. 2024년 미국 대선에서 AI가 생성한 가짜 영상이 수백만 번 공유됐다. AI의 편향성도 심각하다. 채용 AI가 여성 지원자를 차별하고, 사법 AI가 특정 인종에게 불리한 판결을 내리는 사례가 보고됐다. 각국 정부는 AI 규제법을 만들고 있지만, 기술 발전 속도를 따라잡지 못한다.
과학자들은 다음 단계를 준비하고 있다. 더 효율적인 학습 방법, 적은 데이터로도 학습하는 기술, 인간처럼 추론하는 범용 인공지능. 오픈 AI의 CEO 샘 올트먼은 "범용 인공지능은 10년 내에 온다"라고 예측했다. 누군가는 "AI가 모든 일을 대신할 것"이라 말하고, 누군가는 "AI는 영원히 인간의 도구일 뿐"이라 반박한다.
70년 전 다트머스 회의에서 젊은 과학자들은 '생각하는 기계'를 꿈꿨다. 사람들은 비웃었고, AI는 두 번의 혹독한 겨울을 견뎌야 했다. 하지만 포기하지 않은 이들 덕분에 그 꿈은 이제 우리의 일상이 됐다. AI는 여전히 배고프다. 더 많은 데이터를, 더 많은 전기를 원한다. 우리는 이 배고픈 기계에게 무엇을 먹일 것인가? 그리고 언제 멈추라고 말할 것인가? 답은 우리가 만들어가야 한다.