brunch

인공지능 역사: 18세기 마법 쇼에서 현재의 동반자까지

기계 지능을 향한 인류의 오랜 꿈

by 코아

인간처럼 생각하는 기계를 만들고 싶다는 꿈은 아주 오래전부터 있었습니다. 기술이 발달하기 전인 신화 속 이야기에서도 인간의 지능을 닮은 존재들이 등장하곤 했죠. 그런데 이 거창한 인공지능(AI) 역사의 시작점은 뜻밖에도 18세기 비엔나 궁전에서 열린 '마법 같은 체스 쇼'였습니다. 이 글은 그 마법 쇼에서 시작해, 수많은 실패와 성공을 거쳐 지금 우리 곁에 있는 'ChatGPT' 같은 AI가 탄생하기까지의 흥미진진한 이야기를 들려드립니다.





1. 지능의 환상: 18세기 체스 기계, 메커니컬 터크


1770년, 볼프강 폰 켐펠렌(Wolfgang von Kempelen)은 오스트리아의 마리아 테레지아 여제를 즐겁게 하기 위해 ‘메커니컬 터크’라는 장치를 만들었습니다. 이 장치는 스스로 체스를 두는 것처럼 보이는 인형으로, 당시에는 최초의 자동 체스 기계로 알려졌고 18세기 유럽과 미국 전역에서 큰 화제를 모았습니다.


터크는 오스만 제국식 옷과 터번을 쓴 사람 모양의 인형이 체스판 앞에 앉아 있는 모습이었고, 실제 체스 고수들을 연달아 이기며 놀라운 지능을 가진 기계처럼 보였습니다. 하지만 터크는 진짜 인공지능이 아니라, 정교한 장치와 사람의 도움으로 만들어진 속임수 기계였습니다. 캐비닛 안에는 사람이 숨어 있었고, 그 사람이 실제로 체스를 두고 있었습니다.


체스 말 밑에 달린 자석 덕분에 내부에 있는 조종사는 체스판 위의 움직임을 알 수 있었고, 지렛대와 연결 장치를 이용해 인형의 팔을 움직였습니다. 내부는 촛불로 밝혔고, 터번과 연결된 통로로 연기를 내보내 기계가 스스로 작동하는 것처럼 보이게 했습니다. 또한, 캐비닛 문이 열릴 때마다 조종사가 자리를 옮겨 몸을 숨길 수 있도록 좌석이 움직이게 설계되어 있었습니다.


이 장치는 당시 사회에 매우 큰 영향을 주었습니다. 무려 84년 동안 전시되었고, 나폴레옹 보나파르트와 벤저민 프랭클린 같은 유명 인물들도 터크에게 패했습니다. 심지어 체스 고수들도 어려워하는 문제를 완벽하게 해결해 사람들을 더욱 놀라게 했습니다. 사람들은 터크를 보며 기계도 인간처럼 생각할 수 있는가라는 질문을 던지기 시작했고, 이는 인간만의 능력이라고 여겨졌던 지능이 언젠가 기계로 대체될 수 있다는 두려움과 기대를 동시에 불러일으켰습니다.



메커니컬 터크 (출처: 위키피디아)




2. 인공지능의 탄생 (1943-1956)


18세기의 메커니컬 터크가 대중에게 막연한 환상을 심어주었다면, 20세기에 들어와서는 컴퓨터 기술의 비약적인 발전과 함께 인공지능이 실제 과학의 영역으로 들어오기 시작했습니다. 제2차 세계대전이 끝난 직후, 과학자들은 계산 능력이 생긴 거대한 컴퓨터를 보며 새로운 꿈을 꾸었습니다. 바로 "이 기계가 단순히 계산만 하는 것이 아니라, 인간처럼 생각하고 판단할 수 있지 않을까?"라는 근원적인 물음이었습니다. 이 시기는 인공지능 역사에서 가장 설레고 중요한 태동기였습니다.


2.1 "기계가 사람인 척할 수 있다면, 그것은 지능이다" - 튜링 테스트

1950년, 현대 컴퓨터 과학의 아버지라 불리는 영국의 천재 수학자 앨런 튜링(Alan Turing)은 "기계가 생각할 수 있는가?"라는 도발적인 질문을 던지며 역사적인 논문을 발표했습니다. 그는 '생각'이나 '지능'이라는 보이지 않는 개념을 정의하느라 논쟁하는 대신, 기계가 지능을 가졌는지 판별할 수 있는 아주 구체적이고 실용적인 방법을 제안했습니다. 이것이 바로 그 유명한 '튜링 테스트(Turing Test)'입니다.


튜링 테스트의 원리는 '이미테이션 게임(흉내 내기 게임)'에 기반을 둡니다. 방법은 간단합니다. 심판이 보이지 않는 방에 있는 두 대상과 문자로 대화를 나눕니다. 한 쪽은 사람이고, 다른 한 쪽은 컴퓨터입니다. 컴퓨터의 목표는 심판이 자신을 사람이라고 믿게끔 감쪽같이 속이는 것입니다. 만약 심판이 대화만으로 누가 사람이고 누가 기계인지 구별해내지 못한다면, 튜링은 그 기계가 '생각할 수 있는 능력', 즉 지능을 가졌다고 인정해야 한다고 주장했습니다. 이는 복잡한 뇌세포의 구조를 따지는 것이 아니라, '결과적으로 인간처럼 행동하면 지능이 있는 것'으로 보자는 획기적인 발상의 전환이었습니다. 튜링의 이 제안은 이후 AI 연구가 나아갈 철학적 방향을 제시했습니다.

튜링 테스트 (출처: 위키피디아)



2.2 AI라는 이름의 탄생 - 다트머스 컨퍼런스

튜링의 질문이 씨앗이었다면, 그 씨앗이 싹을 틔운 것은 1956년 여름, 미국 뉴햄프셔주의 다트머스 대학교였습니다. 존 매카시(John McCarthy)를 주축으로 마빈 민스키, 클로드 섀넌, 그리고 IBM의 나다니엘 로체스터 등 4명의 과학자가 공동 주최한 이 모임은 훗날 ‘다트머스 컨퍼런스(Dartmouth Conference)’로 불리며 AI 역사의 출발점이 되었습니다.

사실 ‘인공지능(Artificial Intelligence, AI)’이라는 용어는 컨퍼런스 개최 1년 전인 1955년 8월, 록펠러 재단에 보낸 후원 제안서에서 처음 등장했습니다. 당시 학계에서는 ‘생각하는 기계’나 ‘사이버네틱스(Cybernetics)’ 같은 용어가 주로 쓰였지만, 매카시는 인간의 뇌를 모방하는 생물학적 접근보다는 ‘기계가 지능적으로 기능하는 것’ 자체에 집중하고자 했습니다. 그는 기존 연구들과의 차별화를 위해 ‘인공지능’이라는 새로운 이름을 고안했고, 이 제안서를 통해 AI는 비로소 정식 명칭을 얻게 되었습니다.


약 2개월간 진행된 이 모임에는 당대 최고의 천재 과학자 20여 명이 참여했습니다. 그들은 "학습의 모든 측면이나 지능의 모든 기능을 기계가 시뮬레이션하도록 정밀하게 기술할 수 있다"는 대담한 가설 아래, "여름 한 철 동안 10명이 모여 연구하면 상당한 진전을 이룰 수 있을 것"이라는 낙관적인 기대를 품고 있었습니다.


비록 그들의 예상처럼 짧은 여름 안에 AI의 모든 문제를 해결하지는 못했지만, 이 회의는 인공지능을 하나의 독립된 학문 분야로 선포하는 계기가 되었습니다. 튜링 테스트가 제시한 비전과 다트머스 회의에서 확립된 학문적 정체성은 이후 인공지능이라는 거대한 여정을 지탱하는 든든한 뿌리가 되었습니다.


https://www.aitimes.com/news/articleView.html?idxno=168028





3. 황금기 (1956~1974년)


1956년 다트머스 회의가 성공적으로 끝난 후, 인공지능 분야는 말 그대로 '황금기'를 맞이했습니다. 미국 정부와 국방부는 이 새로운 기술에 막대한 연구 자금을 쏟아부었고, 과학자들은 "20년 안에 기계가 인간이 할 수 있는 모든 일을 해낼 것"이라며 자신감에 차 있었습니다. 마치 갓 걸음마를 뗀 아이가 하루가 다르게 성장하듯, 이 시기의 AI는 놀라운 성과들을 연달아 터뜨렸습니다.


또한 '기호주의 AI(Symbolic AI)'의 전성시대였습니다. 기호주의 AI는 인간의 지식과 사고 과정을 기호와 명확한 논리 규칙(If-Then)으로 정의해 문제를 해결하는 방식입니다. 데이터 학습 대신 사람이 설계한 논리 구조를 따르는 고전적인 AI입니다. 연구자들은 컴퓨터에게 논리와 언어 규칙을 하나하나 가르치면 지능이 탄생할 것이라고 굳게 믿었습니다.


3.1 "기계가 수학 정리를 증명하고, 사람의 마음을 위로하다"

이 시기 가장 놀라운 사건은 컴퓨터가 단순한 '계산기'를 넘어 '논리적인 추론'을 시작했다는 것입니다. 뉴웰과 사이먼이 개발한 '로직 시어리스트(Logic Theorist)'는 수학의 난해한 정리들을 사람보다 더 우아한 논리로 증명해 내며 세상을 깜짝 놀라게 했습니다. 숫자가 아닌 기호를 조작해 문제를 해결하는 이 프로그램은 최초의 인공지능 프로그램으로 불립니다.


대중들에게 더욱 충격을 준 것은 1966년 조셉 와이젠바움(Joseph Weizenbaum) 개발한 대화형 프로그램 '엘리자(ELIZA)'였습니다. 엘리자는 로저스 심리치료법을 흉내 내도록 설계되었는데, 그 작동 원리는 의외로 단순한 '패턴 매칭'이었습니다. 예를 들어 사용자가 "나 어머니 때문에 화가 나"라고 입력하면, 엘리자는 '어머니'라는 키워드를 포착해 미리 입력된 규칙에 따라 "가족에 대해 더 이야기해 주시겠어요?"라고 되묻는 식이었습니다.


엘리자는 문장의 의미를 전혀 이해하지 못했고 그저 앵무새처럼 단어를 바꿔치기했을 뿐이었습니다. 하지만 흥미롭게도 사람들은 이 기계가 자신의 말에 공감한다고 착각했습니다. 심지어 개발자의 비서조차 엘리자에게 사적인 고민을 털어놓으며 방을 비워달라고 할 정도였죠. 이는 기계가 겉보기에 그럴듯한 대화만 가능해도 인간은 그 안에 지능(마음)이 있다고 믿어버린다는 '엘리자 효과(ELIZA Effect)'라는 용어를 탄생시켰습니다.




3.2 "스스로 생각하고 움직이는 최초의 로봇, 쉐이키"


화면 속의 지능이 현실 세계로 걸어 나온 것은 1960년대 후반 스탠퍼드 연구소(SRI)에서 개발한 로봇 '쉐이키(Shakey)' 덕분이었습니다. 쉐이키 로봇은 스스로 행동을 추론할 수 있는 최초의 범용 이동 로봇 이었습니다. 이전의 로봇들은 공장의 기계 팔처럼 입력된 좌표로만 움직이는 '눈먼 기계'였지만, 쉐이키는 달랐습니다.


쉐이키는 머리에 달린 카메라와 거리 센서로 주변 환경을 '지각(Sense)'하고, 자신의 두뇌인 컴퓨터로 정보를 보내 '계산(Think)'한 뒤, 바퀴로 '행동(Act)'하는 과정을 스스로 수행했습니다. 연구원이 "저 방에 가서 상자를 밀어라"라고 명령하면, 쉐이키는 미리 입력된 프로그램 없이도 "장애물을 피하려면 왼쪽으로 돌고, 문을 통과해 직진해야겠다"는 계획을 스스로 짰습니다. 만약 가다가 누군가 몰래 장애물을 옮겨 놓으면, 잠시 멈춰 서서(이때 덜덜 떨어서 쉐이키라는 이름이 붙었습니다) 지도를 다시 그리고 새로운 경로를 찾아냈습니다.


비록 상자 하나를 옮기는 데 몇 시간이 걸릴 만큼 느렸지만, 쉐이키는 '지각-계산-행동'이라는 현대 로보틱스의 핵심 원리를 최초로 구현한 기념비적인 존재였습니다.


쉐이키(왼쪽), 담당 개발자(오른쪽) (출처: 위키피디아)


3.3 장밋빛 미래와 다가오는 그림자


이처럼 기계가 수학을 풀고(논리), 사람을 위로하며(언어), 스스로 길을 찾는(행동) 모습에 과학자들은 "20년 안에 영화 속 인공지능이 현실이 될 것"이라고 확신했습니다. 하지만 그들은 곧 깨달았습니다. 잘 정의된 규칙 안에서 체스를 두거나 수학을 푸는 것은 쉽지만, "어머니가 좋다"는 말의 미묘한 뉘앙스를 이해하거나 어지러운 방 안을 걷는 것 같은 '일상적인 일'이 기계에게는 훨씬 더 어렵다는 사실을 말입니다. 이 높은 현실의 벽은 곧 첫 번째 AI 겨울을 불러오게 됩니다.





4. AI의 첫 번째 암흑기 (1974-1980)


1970년대 중반, 영원할 것만 같았던 인공지능의 봄날은 가고 혹독한 추위가 닥쳤습니다. 연구자들은 "곧 기계가 인간을 대체한다"고 큰소리쳤지만, 약속은 지켜지지 않았습니다. 기대가 컸던 만큼 실망은 더 컸고, 사람들의 환호는 '환멸(꿈에서 깨어난 듯한 실망감)'로 바뀌었습니다. 우리는 이 시기를 'AI의 겨울'이라고 부릅니다.


이 겨울을 불러온 것은 '기술의 한계'와 '자금 지원 중단'이라는 두 가지 거대한 악재였습니다.


4.1 기술적 한계: 계산할 수 없는 현실의 벽

첫째, '조합 폭발(Combinatorial Explosion)'이라는 거대한 수학적 장벽에 부딪혔습니다. 연구실에서 다루던 체스나 미로 찾기는 규칙이 단순하고 변수가 적은 '장난감 문제'였습니다. 하지만 AI를 복잡한 현실 세계에 적용하려 하자 상황이 완전히 달라졌습니다. 현실은 고려해야 할 변수가 너무나 많았기 때문입니다. 예를 들어 로봇에게 "커피를 타오라"고 시키면, 인간에게는 단순한 심부름이지만 로봇은 컵의 위치, 물의 온도, 걷는 속도, 바닥의 장애물 등 수백만 가지의 변수를 계산해야 했습니다. 변수가 하나만 늘어나도 계산해야 할 양은 덧셈이 아니라 곱셈으로, 즉 기하급수적으로 폭발하듯 늘어납니다. 당시의 알고리즘은 이 무한대에 가까운 경우의 수를 일일이 따져봐야만 다음 행동을 결정할 수 있었기 때문에, 아주 간단한 현실 문제 앞에서도 계산만 하다가 멈춰버리기 일쑤였습니다.


둘째, 하드웨어의 성능이 아이디어에 비해 턱없이 부족했습니다. 1970년대의 컴퓨터는 지금 우리가 쓰는 스마트폰은커녕, 간단한 전자계산기보다도 못한 성능을 가지고 있었습니다. 당시 연구자들은 AI가 인간의 시각이나 언어를 모방하려면 뇌의 처리 속도를 따라가야 한다고 생각했습니다. 하지만 연구 결과, 인간의 눈(망막)에 있는 세포 하나가 1초 동안 처리하는 시각 정보량조차 당시 슈퍼컴퓨터가 처리하려면 수만 배 이상의 시간이 필요했습니다. 저장 공간(메모리) 또한 너무나 비싸고 용량이 작아서, AI가 학습하거나 기억해야 할 방대한 지식을 담을 그릇 자체가 없었습니다. 인간의 뇌는 수천억 개의 신경세포가 동시에 작동하며 순식간에 복잡한 판단을 내리는데, 당시 컴퓨터는 고작 20개의 명령어를 순서대로 처리하는 수준이었으니, '지능'을 담기에는 컴퓨터라는 그릇이 너무나 작고 느렸던 것입니다.


셋째, 인공신경망 이론이 치명적인 한계를 드러내며 무너졌습니다. 당시 AI 연구의 한 축은 인간의 뇌세포 연결을 모방한 '퍼셉트론(Perceptron)'이었습니다. 하지만 1969년, AI의 대가인 마빈 민스키는 저서를 통해 이 모델이 아주 기초적인 논리인 **'XOR(배타적 논리합) 문제'조차 풀 수 없다는 것을 수학적으로 증명했습니다.


쉽게 설명하자면, 당시의 AI는 데이터를 분류할 때 종이 위에 '직선 하나'만 그을 수 있는 수준이었습니다. 흰 돌과 검은 돌이 섞여 있을 때 직선 하나로 깔끔하게 나눌 수 있는 문제는 풀 수 있지만, XOR 문제처럼 구불구불한 곡선을 그려야만 나눌 수 있는 복잡한 배치는 전혀 해결하지 못한 것입니다. "가장 기초적인 문제도 못 푼다"는 이 증명은 신경망 연구에 대한 사형 선고나 다름없었고, 이후 10년 넘게 뇌를 모방하는 연구 방식은 자금 지원이 끊긴 채 철저히 외면받게 되었습니다.




4.2 지원 중단: 냉혹하게 등을 돌린 정부

기술이 벽에 부딪히자, 돈줄을 쥐고 있던 정부와 기관들은 가차 없이 등을 돌렸습니다.


영국에서는 1973년 '라이트힐 보고서'가 결정타를 날렸습니다. 영국의 수학자 제임스 라이트힐이 정부의 의뢰를 받아 작성한 이 보고서는 "AI가 약속했던 거창한 목표 중 달성된 것은 아무것도 없다"고 혹독하게 평가했습니다. 이 보고서 한 장으로 영국의 수많은 AI 연구소는 문을 닫아야 했습니다.


미국의 상황도 비슷했습니다. AI 연구의 최대 후원자였던 DARPA(미 국방부 고등연구계획국)는 "음성 인식 기술 등이 실제 군사 작전에 아무런 도움이 안 된다"며 지원을 전격 취소했습니다. 특히 1969년 통과된 '맨스필드 수정안'이라는 법안은 연구 자금의 성격을 완전히 바꿔놓았습니다. 이 법안은 국방 예산을 '당장 전쟁에 쓸 수 있는 구체적인 기술'에만 쓰도록 강제했습니다. 결국 돈이 되지 않는 순수 AI 기초 연구는 고사 위기에 처했습니다.


결론: 종이 날개를 단 우주선

이 시기의 AI는 "현실에선 쓸모없는 장난감(Toy)"이라는 조롱을 받았습니다. 이 암흑기를 비유하자면 다음과 같습니다. "종이 날개를 달고 우주로 날아갈 수 있다고 큰소리치며 뛰어내린 발명가에게, 냉혹한 중력의 법칙(기술적 한계)이 현실을 일깨워주자 그를 믿었던 투자자들(정부)이 일제히 등을 돌려버린 상황"이었습니다.


하지만 이 차가운 시기에도 끈질긴 연구자들은 포기하지 않고, 묵묵히 다음 봄을 준비하고 있었습니다.






5. AI 붐 (1980-1987): 전문가 시스템의 등장


1980년에 들어서자, 꽁꽁 얼어붙었던 AI 연구에 다시 따뜻한 봄바람이 불기 시작했습니다. "인공지능은 돈만 먹는 하마"라는 오명을 벗고, 기업에 막대한 이익을 가져다주는 '황금알을 낳는 거위'로 화려하게 부활했기 때문입니다. 이 시기를 이끈 주인공은 바로 '전문가 시스템(Expert System)'이었습니다.


5.1 "박사님의 뇌를 컴퓨터에 이식하다" - 전문가 시스템

지난 암흑기의 교훈은 "모든 것을 다 잘하는 기계는 불가능하다"는 것이었습니다. 그래서 연구자들은 전략을 수정했습니다. "만물박사 대신, 특정 분야만 깊게 파는 전문가를 만들자!"


이렇게 탄생한 전문가 시스템은 특정 분야 인간 전문가의 지식과 노하우를 컴퓨터에 규칙(Rule) 형태로 저장한 프로그램입니다. 작동 원리는 '만약(If) ~라면, 결과는(Then) ~이다'라는 논리 구조를 수천, 수만 개 쌓아 올리는 방식이었습니다.


가장 대표적인 성공 사례는 1980년, 미국의 컴퓨터 제조사 DEC (Digital Equipment Corporation)가 도입한 'XCON'이라는 시스템이었습니다. 당시 컴퓨터 부품 조립은 너무 복잡해서 베테랑 기술자들도 실수를 자주 했는데, XCON은 부품들의 조합 규칙을 완벽하게 숙지하고 주문에 맞는 조립 방법을 척척 알려주었습니다. 이 시스템 덕분에 DEC는 연간 4,000만 달러(약 500억 원)라는 엄청난 비용을 절약할 수 있었습니다. "AI가 진짜 돈이 된다"는 사실이 증명되자, 전 세계 기업들이 앞다퉈 AI 부서를 만들고 투자를 시작했습니다.




5.2 전 세계적인 AI 군비 경쟁: 일본의 도전과 서구의 반격

이 붐에 기름을 부은 것은 다름 아닌 일본이었습니다. 1981년, 경제 호황을 누리던 일본 정부는 '제5세대 컴퓨터 프로젝트'라는 야심 찬 계획을 발표했습니다. 그들은 10년 동안 막대한 예산을 쏟아부어 인간처럼 대화하고 추론하는 슈퍼컴퓨터를 만들어 세계 시장을 제패하겠다고 선언했습니다.


이에 충격을 받은 미국과 영국 등 서구권 국가들은 발등에 불이 떨어졌습니다. "미래 기술의 패권을 일본에 뺏길 수 없다"는 위기감 속에 미국은 MCC(Microelectronics and Computer Technology Corporation)라는 연구 연합을 결성했고, 영국도 알비(Alvey) 프로젝트를 가동하며 대규모 자금을 AI 연구에 쏟아부었습니다. 바야흐로 AI 기술 패권 경쟁의 시대가 열린 것입니다.


5.3 화려한 겉모습 뒤에 숨겨진 함정: 지식의 병목 현상

하지만 이 화려한 붐의 이면에는 치명적인 약점이 자라고 있었습니다. 전문가 시스템은 똑똑해 보였지만, 사실 융통성이 전혀 없는 '고지식한 기계'였습니다.


첫째, '지식 병목 현상(Knowledge Bottleneck)'이 문제였습니다. 전문가의 머릿속에 있는 직관과 노하우를 컴퓨터가 이해할 수 있는 'If-Then' 규칙으로 바꾸는 것은 엄청난 시간과 비용이 드는 중노동이었습니다. 둘째, '취약성(Brittleness)'입니다. 시스템은 입력된 규칙에서 조금만 벗어나는 낯선 상황을 만나면, 바보처럼 멈추거나 엉뚱한 답을 내놓았습니다. 예를 들어 '피부병 진단 시스템'에게 '녹슨 자동차' 사진을 보여주면, "희귀한 피부암입니다"라고 진단하는 식이었죠. 상식(Common Sense)이 없었기 때문입니다.


결국 유지보수의 어려움과 값비싼 비용 문제로 인해 기업들은 다시 AI에 등을 돌리기 시작했고, 짧았던 전성기는 1980년대 후반 '두 번째 AI 겨울'을 예고하며 서서히 저물어갔습니다.






6. AI의 두 번째 암흑기 (1987-1993): 무너진 모래성


1980년대 후반, 기업들이 앞다퉈 도입했던 '전문가 시스템'의 거품이 터지면서 인공지능 분야는 또다시 긴 겨울잠에 빠져들었습니다. 첫 번째 암흑기가 '기술적 한계(할 수 없어서)' 때문에 찾아왔다면, 두 번째 암흑기는 철저한 '경제적 실패(돈이 안 돼서)' 때문에 찾아왔습니다. 시장은 냉혹했고, AI라는 단어는 투자자들 사이에서 기피 대상 1순위가 되었습니다.


6.1 몰락의 원인 1: 배보다 배꼽이 더 커진 유지보수 비용

전문가 시스템이 몰락한 가장 현실적인 이유는 바로 '비용 효율성'이었습니다. 초기에는 전문가의 지식을 컴퓨터에 넣어두면 영원히 쓸 수 있을 것 같았지만, 세상은 끊임없이 변한다는 것이 문제였습니다. 법규가 바뀌거나, 새로운 신제품이 나오거나, 업무 절차가 조금만 바뀌어도 수만 개에 달하는 'If-Then' 규칙을 사람이 일일이 찾아서 수작업으로 고쳐야 했습니다. 이는 마치 거대한 모래성을 쌓아놓고 파도가 칠 때마다 무너지지 않게 손으로 막아내는 것처럼 고통스럽고 비효율적인 작업이었습니다.


또한, '브리틀니스(Brittleness, 깨지기 쉬움)'라는 치명적인 약점이 드러났습니다. 시스템이 자신이 아는 규칙에서 조금만 벗어난 낯선 상황을 마주하면, 유연하게 대처하는 것이 아니라 엉뚱한 오류를 뿜어내며 완전히 멈춰버리는 현상입니다. 결국 기업들은 "이 까다로운 기계를 유지 보수하느라 비싼 프로그래머를 고용하느니, 차라리 그 돈으로 업무 전문가를 채용하는 게 훨씬 싸고 정확하다"는 결론을 내렸고, 이는 AI 시스템의 대량 폐기로 이어졌습니다.


리스프 머신(왼쪽) (출처: 위키 피디아)



6.2 몰락의 원인 2: 데스크톱 PC의 역습과 전용 머신의 종말

1980년대 AI 시장을 지탱하던 한 축은 '리스프 머신(Lisp Machine)'이라는 AI 전용 컴퓨터였습니다. 당시 일반 컴퓨터로는 복잡한 AI 연산을 처리하기 힘들었기에, 한 대당 수천만 원에서 억대를 호가하는 이 '귀족 컴퓨터'는 연구소와 기업의 필수품이었습니다. 심볼릭스(Symbolics) 같은 전용 하드웨어 제조사들은 호황을 누렸습니다.


하지만 1987년을 기점으로 시장이 붕괴했습니다. IBM과 애플이 주도한 일반 개인용 컴퓨터(PC) 시장이 폭발적으로 성장하며, 인텔 CPU의 성능이 비약적으로 좋아진 것입니다. 대량 생산으로 가격은 훨씬 저렴한데 성능은 수억 원짜리 전용 머신과 비슷하거나 오히려 더 빠른 PC들이 쏟아져 나왔습니다. "값싼 PC로도 다 되는데, 굳이 비싼 전용 기계를 살 이유가 없다"는 인식이 퍼지자 AI 하드웨어 시장은 순식간에 증발해버렸습니다. 이는 하드웨어 회사들의 연쇄 도산으로 이어졌고, AI 산업 전체의 투자 매력도를 떨어뜨리는 결정타가 되었습니다.



6.3 "AI라고 부르지 마라": 낙인이 된 이름

이 시기의 암흑기는 단순한 자금 부족을 넘어, '신뢰의 붕괴'를 의미했습니다. 1차 암흑기 때의 실망감이 2차에서는 분노와 조롱으로 변했습니다. 투자자들과 기업 경영진에게 '인공지능(AI)'이라는 단어는 '돈만 먹고 성과는 없는 사기' 혹은 '허황된 공상과학'과 동의어처럼 여겨졌습니다.


연구자들은 살아남기 위해 처절한 생존 전략을 택해야 했습니다. 연구 제안서나 논문 제목에서 의도적으로 'AI'라는 단어를 지우기 시작한 것입니다. 대신 '지능형 정보 시스템', '패턴 인식', '통계적 추론' 같은 건조하고 실용적으로 보이는 용어를 사용하여 "우리는 허황된 로봇을 만드는 게 아니라, 수학적인 도구를 만드는 겁니다"라고 어필했습니다. 화려한 '생각하는 기계'의 꿈을 잠시 접어두고, 수학과 통계학을 빌려 기초부터 다시 다지는 이 시기는 훗날 AI가 진짜 실력을 갖추고 부활하기 위해 꼭 필요했던 '겸손과 인내의 시간'이었습니다.






7. AI의 부활과 딥러닝 혁명 (1993년 ~ 현재): 상상이 현실이 된 시대


1990년대 후반부터 2000년대 초반, 인터넷의 보급으로 인공지능은 새로운 국면을 맞이했습니다. 웹에서 쏟아지는 방대한 데이터, 그리고 게임 그래픽을 처리하기 위해 만들어졌으나 AI 연산에 최적화된 것으로 밝혀진 GPU(그래픽 처리 장치)의 등장은 꺼져가던 인공신경망의 불씨를 거대한 화염으로 되살렸습니다. 우리는 이 거대한 폭발을 '딥러닝(Deep Learning) 혁명'이라 부릅니다.


설명에 앞서 몇 가지 개념을 먼저 이해해봅시다.


인공지능, 머신러닝, 딥러닝 개념

(1) 인공지능 (Artificial Intelligence, AI)

인공지능은 인간의 지능(학습, 추론, 지각, 언어 이해 등)을 기계로 구현한 가장 포괄적인 개념입니다. 단순한 규칙 기반의 프로그램부터 스스로 학습하는 고도화된 시스템까지, '지적인 작업'을 수행하는 모든 기술을 통칭합니다.


예시: 게임 속에서 미리 정해진 규칙에 따라 움직이는 적(NPC) 캐릭터나, 사용자가 묻는 말에 정해진 답변만 하는 초기 룰 기반 챗봇이 여기에 해당합니다.


2. 머신러닝 (Machine Learning, ML)

머신러닝은 AI의 하위 집합으로, 데이터를 통해 컴퓨터를 학습시키는 기술입니다. 개발자가 일일이 규칙을 코딩하지 않아도, 알고리즘이 대량의 데이터를 분석하여 패턴을 찾고 예측 모델을 만듭니다. 데이터가 많을수록 성능이 향상됩니다.


예시: 수신된 메일 데이터를 분석해 '광고', '당첨' 등의 패턴을 찾아 스팸 메일함으로 분류하는 '스팸 필터'나, 시청 이력을 바탕으로 취향을 예측하는 '넷플릭스 추천 시스템'이 대표적입니다.


3. 딥러닝 (Deep Learning, DL)

딥러닝은 머신러닝의 하위 분야로, 인간의 뇌 신경망(뉴런)을 모방한 '인공신경망'을 사용하는 기술입니다. 층층이 쌓인 깊은(Deep) 신경망을 통해 데이터의 미세한 특징까지 기계가 스스로 추출하고 판단하므로, 이미지나 음성 같은 복잡한 데이터 처리에 탁월합니다.


예시: 수만 장의 사진 속에서 귀의 모양, 털의 질감 등 특징을 스스로 파악해 고양이를 식별하는 기술이나, 사람처럼 바둑의 수를 읽고 학습했던 '알파고(AlphaGo)'가 딥러닝의 산물입니다.


쉽게 비유하자면, AI가 '자동차'라는 큰 범주라면, 머신러닝은 '내연기관 자동차', 딥러닝은 그중에서도 고성능 엔진을 탑재한 '스포츠카'라고 이해할 수 있습니다.






7.1 딥러닝의 화려한 귀환: 2012년 알렉스넷 쇼크


"잠들어 있던 뇌를 깨우다: 딥러닝(Deep Learning)이란?"

이 시기를 이해하기 위해서는 먼저 '딥러닝'이 무엇인지 알아야 합니다. 딥러닝은 인간의 뇌세포(뉴런)가 복잡하게 얽혀 신호를 주고받는 모습을 모방한 '인공신경망(Artificial Neural Network)'의 업그레이드 버전입니다.

과거의 신경망은 층(Layer)이 얕아서 단순한 문제밖에 풀지 못했습니다. 층을 깊게 쌓으려 하면 학습 도중 데이터가 소실되는 문제(기울기 소실)가 발생했기 때문입니다. 하지만 제프리 힌튼 교수를 비롯한 연구자들은 데이터를 잃어버리지 않고 깊은 층까지 전달하는 새로운 수학적 기법을 개발해냈고, 때마침 등장한 고성능 GPU가 이 방대한 연산을 가능하게 했습니다. 즉, "수십, 수백 층의 깊이(Deep)를 가진 신경망으로 학습(Learning)한다" 하여 딥러닝이라 부릅니다. 이 깊어진 층 덕분에 AI는 사물의 아주 미세한 특징까지 스스로 찾아낼 수 있게 되었습니다.



"전설의 시작, 알렉스넷(AlexNet)"

이 이론이 현실에서 증명된 결정적 사건이 2012년 이미지 인식 대회입니다. 당시 AI들은 사진 속 고양이를 알아보는 데 26% 정도의 오류를 보였습니다. 그런데 힌튼 교수의 제자들이 만든 '알렉스넷'이 등장하여 이 오류율을 단숨에 15.3%로 낮추는 기적을 보여주었습니다. 2등과의 격차가 무려 10% 이상이었습니다. 알렉스넷은 GPU를 사용하여 65만 개의 뉴런과 6천만 개의 파라미터를 가진 거대한 신경망을 학습시켰습니다. 이 충격적인 압승은 "이제 딥러닝이 아니면 안 된다"는 인식을 전 세계에 심어주었고, 구글, 페이스북 같은 거대 기업들이 AI 연구에 천문학적인 돈을 쏟아붓게 만든 역사적인 신호탄이 되었습니다.


딥러닝의 창시자로 불리는 제프리 힌턴(맨 오른쪽) 교수, 오픈AI 공동창업자 일리야 슈츠케버(맨 왼쪽) (출처=토론토대)


이미지넷 (출처: 나무위키)



7.2 직관의 영역을 정복하다: 2016년 알파고의 충격

"계산할 수 없는 우주, 바둑에 도전하다" 이미지 인식을 정복한 AI의 다음 상대는 바둑이었습니다. 바둑은 가로세로 19줄의 바둑판 위에 돌을 놓는 경우의 수가 우주의 모든 원자 수보다 많습니다. 이는 아무리 빠른 슈퍼컴퓨터라도 모든 경우를 계산하는 것이 불가능함을 의미합니다. 그래서 바둑은 기계가 넘볼 수 없는 인간 고유의 '직관'과 '감각'의 영역이라 여겨졌습니다. 하지만 구글 딥마인드의 '알파고(AlphaGo)'는 무작위 계산이 아닌, 인간의 뇌를 모방한 두 개의 신경망(정책망과 가치망)을 통해 이 난제를 해결했습니다. '정책망'은 다음에 어디에 돌을 둘지 후보를 추리고, '가치망'은 현재 승률이 얼마나 되는지 판단하여 불필요한 계산을 줄였습니다.


"인류를 전율케 한 37수, 그리고 4대 1" 2016년 3월 서울, 세계 최정상 기사 이세돌 9단과의 대국은 전 세계 6천만 명이 지켜보는 세기의 이벤트였습니다. 결과는 4대 1, 알파고의 압승이었습니다. 특히 제2국에서 알파고가 보여준 '37수'는 기존 바둑 이론에서는 '실수'로 취급받을 만한 파격적인 수였으나, 결국 대국을 승리로 이끄는 신의 한 수가 되었습니다. 이는 AI가 인간의 기보를 흉내 내는 수준을 넘어, 스스로 학습하여 인간이 생각지 못한 창의적인 전략을 만들어낼 수 있음을 증명한 사건이었습니다. 이 충격은 대한민국을 넘어 전 세계에 '인공지능 포비아(공포)'와 'AI 붐'을 동시에 불러왔으며, AI가 먼 미래가 아닌 우리 눈앞의 현실임을 각인시킨 거대한 문화적 전환점이 되었습니다.




7.3 언어의 장벽을 허물다: 2017년 트랜스포머의 등장

"순서대로 읽는 한계를 넘어서다"

이미지와 게임을 정복한 후에도, AI에게 가장 높은 벽은 '인간의 언어(자연어)'였습니다. 기존의 번역 AI(RNN 방식, Recurrent Neural Network 순환 신경망은 이전 입력의 정보를 기억해 다음 판단에 사용하는 구조로, 문장·음성처럼 순서가 중요한 데이터를 처리하는 데 쓰인다.) 는 문장을 단어 순서대로 하나씩 읽었습니다. 마치 우리가 긴 문장을 읽다가 앞부분 내용을 까먹는 것처럼, AI도 문장이 길어지면 앞의 맥락을 잊어버려 엉뚱한 번역을 내놓기 일쑤였습니다. 문맥을 이해하려면 문장 전체를 한눈에 보고 단어들 사이의 숨은 관계를 파악해야 하는데, 순차적인 방식으로는 한계가 명확했습니다.


“모든 것은 주목(Attention)에 있다”

2017년, 구글은 기존 언어 모델의 한계를 근본적으로 바꾸는 트랜스포머(Transformer)라는 새로운 딥러닝 구조를 발표했습니다. 트랜스포머의 핵심은 어텐션(Attention, ‘어디에 집중해야 하는지를 계산하는 메커니즘’)입니다. 이는 문장을 단어 하나씩 순서대로 처리하는 방식이 아니라, 문장 전체를 한 번에 바라보며 각 단어가 다른 단어와 얼마나 중요한 관계인지 수치로 계산하는 방식입니다. 예를 들어 “그가 사과를 먹었다”라는 문장에서 ‘먹었다’를 이해할 때, 모델은 ‘사과’와 ‘그’에 더 높은 중요도를 부여합니다. 이 과정은 셀프 어텐션(Self-Attention, ‘문장 내부 단어들끼리 서로를 참고하는 방식’)을 통해 이루어집니다. 그 결과 AI는 긴 문장이나 복잡한 글에서도 맥락을 놓치지 않으며, 모든 단어를 동시에 처리하는 병렬 처리가 가능해져 학습 속도 또한 획기적으로 빨라졌습니다. 이러한 트랜스포머 구조는 오늘날 챗GPT와 같은 거대 언어 모델의 기반이 되었으며, GPT라는 이름의 ‘T’ 역시 Transformer를 의미합니다.




7.4 생성형 AI의 시대: 2022년 ChatGPT와 새로운 동반자

"찾아주는 AI에서, 만들어내는 AI로"

트랜스포머 기술을 바탕으로 AI 모델의 크기는 급격히 커졌습니다. 수천억 개의 파라미터를 가진 '거대 언어 모델(LLM)'들은 인터넷상의 거의 모든 텍스트를 학습했습니다. 그리고 2022년 11월, OpenAI의 ChatGPT가 대중에게 공개되면서 '생성형 AI(Generative AI)'의 시대가 활짝 열렸습니다. 이전의 AI가 "이 사진이 고양이니?"를 맞히는 '판별자'였다면, 지금의 AI는 "고양이가 우주 여행하는 소설을 써줘"라는 요청에 따라 세상에 없던 콘텐츠를 창조하는 '생성자'가 되었습니다.


"누구나 쓸 수 있는 AI의 민주화"

ChatGPT의 가장 큰 혁명은 기술 그 자체보다 '인터페이스의 혁신'에 있었습니다. 복잡한 코딩을 몰라도, 누구나 채팅창에 말만 걸면 AI를 비서처럼 부릴 수 있게 된 것입니다. AI는 이제 번역, 요약, 코딩, 작곡, 그림 그리기 등 인간 고유의 영역이라 믿었던 창의적 활동까지 수행합니다. 특히 별도의 학습 없이도 새로운 작업을 수행하는 '제로샷(Zero-shot)' 능력이나, 논리적으로 추론하는 능력은 전문가들조차 예상치 못한 발전 속도였습니다. 바야흐로 AI는 연구실을 벗어나, 학생의 과제를 돕고 직장인의 업무를 처리하는 일상의 도구로 완전히 자리 잡게 되었습니다.


챗GPT





마무리


18세기 비엔나의 '메커니컬 터크'라는 환상에서 시작된 인공지능의 여정은, 튜링의 도발적인 질문과 다트머스의 뜨거운 여름을 지나 두 번의 혹독한 겨울을 견뎌냈습니다. 그리고 마침내 딥러닝이라는 강력한 엔진을 달고 ChatGPT라는 경이로운 현실로 우리 앞에 섰습니다. 단순한 계산기를 넘어 인간의 언어를 이해하고 창조하는 단계에 이르기까지, 이 눈부신 발전 뒤에는 수많은 과학자의 좌절과 집념이 있었습니다. 이제 우리는 단순한 도구를 넘어, 생각하는 동반자와 함께 살아가는 시대를 맞이했습니다.


그렇다면 지금의 AI는 진화의 과정 중 과연 어디쯤 와 있는 걸까요? 그리고 우리가 마주할 초지능의 미래는 어떤 모습일까요? 다음 글에서는 이 거대한 흐름의 위치를 명확히 파악하기 위해 'AI의 발전 단계'에 대해 심도 있게 다뤄보겠습니다.



keyword
매거진의 이전글AI 기업: 데이터 확보 방법 5가지