[01강] 겨울은 왜 반복되는가 — AI 70년의 패턴

AI가 흥하고 식는 것은 우연이 아니다.

by 슬기로운 PD 생활

AI가 흥하고 식는 것은 우연이 아니다. 70년째 같은 구조가 반복되고 있다.


"이번엔 다르다"는 말을 들었을 때, 어디선가 들어본 것 같은 느낌이 들었다면 — 그 직감이 맞다.






1. 70년째 같은 뉴스


회사 임원이 이렇게 말했다. "우리도 AI 도입해야 하는 것 아닙니까?" 기술 검토를 해서가 아니었다. 경쟁사 보도자료를 봤기 때문이었다. 1년 후, 같은 임원이 다른 말을 했다. "AI 프로젝트 ROI가 영 안 나오는 것 같아요." 이런 장면은 2024년에만 있었던 게 아니다. 1980년대에도, 1960년대에도 거의 똑같은 대화가 있었다. 기술의 이름만 바뀌었을 뿐이다.


가트너(Gartner)는 2025년에 이것을 수치로 정리했다. 기업들은 2024년에 GenAI 프로젝트 하나에 평균 190만 달러를 썼다. 그런데 투자 결과에 만족한다는 CEO는 30%도 안 됐다. 가트너는 지금 생성형 AI가 "환멸의 골짜기"에 들어섰다고 공식 분류했다.


필자가 이 숫자를 보고 놀라지 않은 이유가 있다. 이 뉴스, 이미 두 번 있었다.


Gemini_Generated_Image_tado2ktado2ktado.png Created by Gemini - Nano Banana 2


기대가 먼저 달아오르고, 실망이 뒤따르고, 조용해진다. 70년째 같은 순서다.



2. 기대가 현실보다 빨리 달린다 — 1956년의 출발


1956년, 미국 다트머스 대학에서 작은 모임이 열렸다. 학자 몇 명이 여름 두 달을 함께 연구하는 자리였다.

그 모임의 기획서에 이런 문장이 있었다. "인간 지능의 모든 측면을 기계로 구현하는 문제를 이번 여름에 연구한다."


여름 두 달, 인간 지능 전체.


이 자리가 중요한 이유는 따로 있다. 여기서 AI(인공지능)라는 단어가 처음으로 공식적으로 쓰였다. 그런데 이 단어는 처음부터 이상하게 태어났다. 지금 기계가 무엇을 할 수 있는지를 설명하는 단어가 아니라, 언젠가 기계가 해야 할 것을 가리키는 단어로 만들어진 것이다.


현재 능력이 아니라 미래 목표에 붙인 이름. 이것이 70년 내내 반복되는 과장의 씨앗이었다.


Gemini_Generated_Image_6haxdd6haxdd6hax.png Created by Gemini - Nano Banana 2


AI라는 단어는 처음부터 현실이 아니라 기대의 언어였다.



3. 첫 번째 겨울 — 1974년


1950년대 말, 코넬 대학의 로젠블랫이라는 연구자가 뭔가를 만들었다. 사람 뇌의 신경세포를 수학으로 흉내 낸 구조였다. 이름은 퍼셉트론이었다.


뉴욕타임스가 바로 달려들었다. "걷고, 보고, 말하고, 스스로를 복제하는 기계의 시작"이라고 썼다. 미 해군이 연구비를 댔다.


10년쯤 지난 1969년, MIT의 민스키와 페퍼트라는 두 학자가 책 한 권을 냈다. 요점은 이것이었다. 지금 방식의 신경망은 아주 단순한 논리 문제도 못 푼다. 수학적으로 증명했다.


연구비가 끊겼다. 1974년, 미국과 영국 정부 모두 AI 연구 지원을 대폭 줄였다. 연구자들이 뿔뿔이 흩어졌다. 이것이 첫 번째 AI 겨울이다.


나중에 밝혀진 사실이 있다. 두 학자가 "못 푼다"고 했던 그 문제, 신경망을 여러 겹으로 쌓으면 해결된다. 그 방법은 연구비가 이미 끊긴 뒤에야 나왔다.


기술이 막혀서 멈춘 게 아니었다. 기대가 먼저 무너졌고, 그 뒤에 연구도 멈췄다.


image.png Created by Gemini - Nano Banana 2


겨울은 기술이 실패해서 오는 것이 아니다. 기대가 먼저 실패한다.



4. 두 번째 겨울 — 1987년


1980년대 초, 다시 봄이 왔다. 이번엔 전문가 시스템이라는 게 주인공이었다.


아이디어는 이랬다. 의사나 변호사처럼 전문 지식이 많은 사람의 판단을 규칙으로 정리해두면, 기계도 그 전문가처럼 판단할 수 있다는 것이다. 실제로 잘 작동하는 사례도 있었다. 대기업들이 앞다퉈 AI 부서를 만들었다. AI 전용 컴퓨터까지 따로 팔렸다.


1987년, 그 시장이 무너졌다. 일반 컴퓨터 성능이 빠르게 올라오면서 비싼 AI 전용 장비를 살 이유가 없어진 것이다. 더 근본적인 문제도 드러났다. 규칙 하나를 고치면 연결된 수천 개를 사람이 직접 수정해야 했다. 현실은 규칙으로 다 담을 수 없을 만큼 복잡했다.


두 번째 AI 겨울이었다.


두 번의 겨울에는 공통점이 있다. 특정 문제만 푸는 좁은 도구를 "곧 뭐든 가능해진다"는 식으로 팔았다. 투자가 몰렸고, 간격이 드러났고, 실망이 왔다.


image.png Created by Gemini - Nano Banana 2



5. 이번엔 진짜 다른가


2022년 11월, ChatGPT가 나왔다. 출시 5일 만에 100만 명이 가입했다. 넷플릭스가 같은 숫자에 도달하는 데 걸린 시간은 3년 반이었다.


"이번엔 다르다"는 말과 "버블이다"는 말이 동시에 나왔다. 둘 다 부분적으로 맞다.


실제로 다른 것이 있다. 첫 번째 겨울은 신경망의 수학적 한계가 드러났을 때 왔다. 두 번째 겨울은 규칙 기반 AI가 유지 불가능하다는 게 드러났을 때 왔다. 두 경우 모두 특정 방식의 천장에 부딪혀 무너진 것이다.


지금의 대규모 언어 모델은 다르게 만들어졌다. 특정 문제만 푸는 구조가 아니다. 텍스트로 된 거의 모든 맥락에 적용할 수 있다. 예전 AI가 정해진 선로만 달리는 기차였다면, 지금 AI는 길만 있으면 어디든 가는 차에 가깝다.


반복되는 것도 있다. 기대가 현실을 앞질렀다는 점은 같다. 가트너 데이터에서 CEO 70%가 ROI에 불만족한 것은, 1980년대 전문가 시스템이 약속을 못 지켰을 때와 구조가 같다. 이번엔 도구 자체의 문제라기보다, 어떻게 써야 하는지 아직 잘 모르는 것이 문제다.


가트너는 2025년에 생성형 AI가 환멸의 골짜기에 들어섰다고 분류했다. 그런데 이전 두 번과는 다른 지점이 있다. 이번 골짜기는 "기술이 안 된다"가 아니라 "쓰는 법을 아직 모른다"에서 온다.


image.png Created by Gemini - Nano Banana 2


AI를 두려워하는 사람과 AI를 읽는 사람의 차이는 기술이 아니라, 지금 어느 국면인지를 아는 것에서 온다.



결론


AI의 역사는 올라가기만 하는 그래프가 아니다. 기대가 앞서고, 현실이 따라오지 못하고, 조용해지고, 다시 시작되는 구조가 반복됐다.


이것을 알면 두 가지가 보인다.


지금의 실망 국면은 기술이 틀렸다는 신호가 아니다. 도구가 실제로 무엇을 하고 무엇을 못 하는지가 가려지는 시기다. 이 시기를 지나야 제대로 된 활용이 시작된다.


그리고 이 패턴을 모르면 같은 실수를 반복하게 된다. 뜨거울 때 전부 믿거나, 식었을 때 전부 포기하거나. 어느 쪽도 맞지 않는다.


70년의 패턴이 알려주는 것은 하나다. 기대와 현실 사이의 간격을 읽는 눈이, 기술을 쓰는 능력보다 먼저 필요하다.


image.png Created by ChatGPT - DALL-E 3






다음 강에서는 AI가 왜 자신 있게 틀리는지를 다룬다. 프롬프트를 아무리 정교하게 다듬어도 이 문제가 해결되지 않는 이유가 있다.






참고 자료

Gartner Hype Cycle for Artificial Intelligence, 2025 — Gartner

Riding the Gartner Hype Cycle: AI in 2025 vs 2024 — Building Creative Machines

Marvin Minsky & Seymour Papert, 『Perceptrons』, MIT Press, 1969

Ethan Mollick, 『Co-Intelligence: Living and Working with AI』, Portfolio/Penguin, 2024