1980년대 병렬분산처리 오차역 전파, 2010년대 딥러닝 혁명
1. 1980년대 병렬분산처리와 오차역전파의 귀환
1970년대 **퍼셉트론의 한계**로 AI는 ‘AI 겨울’에 들어섰다.
단층 신경망은 단순한 문제만 풀 수 있었고, 복잡한 패턴 인식에는 무력했다.
그러나 1980년대 두 가지 혁신이 AI를 다시 일으켰다.
병렬분산처리(Parallel Distributed Processing, PDP)
1986년 데이비드 럼멜하트와 제임스 맥클렐런드가 주도한 PDP 연구는 뇌처럼 수많은 뉴런을 병렬로 작동시켜 정보를 처리하는 방식을 제안했다. 이는 다층 신경망(MLP)의 실현 가능성을 높였다.
오차역전파(Backpropagation)
같은 해 럼멜하트, 제프리 힌턴, 로널드 윌리엄스가 오차역전파 알고리즘을 체계화했다.
예측 결과와 정답의 차이를 출력층에서 입력층 방향으로 거슬러 올라가며 가중치를 수정**하는 방식으로, 다층 퍼셉트론 학습의 핵심이 되었다.
이 두 가지는 오늘날 딥러닝의 기본 원리로, GPU·TPU 같은 AI 전용 칩과 결합해 현대 AI 모델의 엔진이 되었다.
2. 2006~2012년 딥러닝의 부활과 GPU혁명
1980년대의 기술은 당시의 연산 속도와 데이터 한계로 잠재력이 완전히 발휘되지 못했다.
하지만 2000년대 중반 이후, **알고리즘·데이터·하드웨어**가 맞물리며 새로운 도약이 일어났다.
2006년 제프리 힌턴 — 사전훈련으로 기울기 소실 극복
층이 깊어질수록 학습이 어려운 기울기 소실 문제를 사전훈련(pre-training)’으로 해결, 딥러닝 부활의 신호탄을 쐈다.
2009년 페이페이 리 — ImageNet 구축
1,400만 장의 라벨링 이미지로 구성된 ImageNet은 대규모 시각 데이터 학습의 표준이 되었다.
2012년 알렉스넷(AlexNet) — 역사적 돌파
8층 합성곱 신경망(CNN)인 알렉스넷이 ImageNet 대회에서 압도적 승리를 거두며 딥러닝 붐을 촉발했다. 비밀 무기는 GPU였다. 게임 그래픽용 GPU를 활용해 학습 시간을 수주에서 수일로 단축했다.
3. 인공지능의 부활
1980년대 병렬분산처리 → 다층 구조 구현 가능, 오차역전파 → 학습 가능
2006~2012년 사전훈련으로 심층 학습 부활, ImageNet으로 데이터 문제 해결, GPU로 연산 혁명
이 두 시기를 거치며 AI는 ‘실험실의 가능성’에서 ‘산업 혁신의 현실’로 변모했다. 오늘날 ChatGPT, 이미지 생성 AI, 자율주행등은 이 두 번의 부활에서 탄생한 토대 위에 서 있다.