책『AI 버블이 온다』소개 및 AI기술의 진실
책 자체는 종이책으로 발매 직후에 구입했는데, 연말연시를 핑계로 차일피일 미루게 되었다.
결론부터 말하자면, 한국어 제목은 책의 본질을 제대로 담지 못한다.
원제는 AI Snake Oil. 미국 서부 개척 시대, 온갖 병을 고친다며 팔리던 가짜 뱀 기름에서 따온 이름이다.
한마디로, 가짜 만병통치약. 지금의 인공지능에게 이보다 잘 어울리는 별명이 있을까.
물론, 번역하기 까다로운 원래 제목과 사람들이 구매하기 좋은 제목을 위해 고심하신 출판사의 노고는 충분히 짐작이 된다.
나는 개인적으로 인공지능 옹호론자이다.
하지만 인공지능이 나의 삶에 가져다준 편리함과 유용함에 감사하면서도, 매 순간 인공지능의 한계를 느끼기도 한다.
그래서 오늘은 이 책을 바탕으로, 우리 삶의 깊숙한 곳까지 들어온 인공지능의 현주소에 대해서 함께 알아보자.
주식 시장은 뜨겁고, 뉴스 헤드라인엔 매일 새로운 AI기술이 등장한다.
나 역시 하루에도 수십 가지의 AI뉴스를 접하고, 블로그에 글을 쓴다.
수많은 기술이 트렌드로 떠올랐다 사라졌지만, 이처럼 모든 사람의 일상과 상상력을 동시에 흔드는 기술도 드문 것 같다.
그런 열기 한복판에서, 책의 저자인 프린스턴 대학의 아르빈드 나라야난 교수는 찬물을 끼얹는다.
지금 우리가 열광하는 인공지능 중 상당수는 사실 제대로 작동하지도 않는 세련된 사기극일 수 있다고.
나라야난 교수는 기술 비평가의 냉철한 눈으로, 지금의 소란은 기술적 성취에 대한 찬사가 아니라 마케팅이 부풀린 거대한 거품에 가깝다고 평가한다. 인공지능 기술이 모두 거짓이라는 뜻이 아니라, 인공지능이 만병통치약처럼 모든 사회적인 문제를 해결하고, 인간을 대신할 것이라는 낙관적 미래에 의문을 제기한다.
그리고 놀라울 정도로 반복적이다.
시작은 1956년, 다트머스 회의.
"기계가 생각할 수 있다"는 대담한 선언과 함께 인공지능이라는 이름이 세상에 처음 등장했다.
학자들은 흥분했고, 정부는 연구비를 쏟아부었다. 곧 인간 수준의 지능이 탄생하리라는 기대가 하늘을 찔렀다. 하지만 현실은 냉혹했다.
기대에 한참 못 미치는 결과 앞에서 연구비는 끊기고, 인공지능은 첫 번째 겨울을 맞는다.
1980년대, 다시 봄이 왔다.
이번에는 '전문가 시스템'이라는 이름으로. 의사의 진단 규칙, 엔지니어의 설계 노하우를 "만약 A이면 B를 하라"는 식의 규칙으로 코딩하면 전문가를 대체할 수 있다는 약속이었다.
기업들은 앞다투어 도입했지만, 규칙이 수천 개를 넘어서자 시스템은 스스로의 무게에 짓눌렸다.
현실 세계의 예외와 모호함을 사전에 규칙으로 정리한다는 것 자체가 불가능에 가까웠기 때문이다.
인공지능의 두 번째 겨울이 찾아왔다.
2010년대, 딥러닝이 모든 것을 바꿨다.
규칙을 인간이 일일이 써줄 필요 없이, 방대한 데이터 속에서 기계가 스스로 패턴을 찾아내는 방식.
이미지 인식, 음성 인식, 번역의 정확도가 급격히 올라갔고, 바둑에서 한국에서는 너무나 유명한 이세돌 9단을 꺾는 장면이 전 세계에 생중계되었다. 그리고 지금, 거대 언어 모델이 등장하면서 인공지능은 세 번째 여름을 맞고 있다.
패턴은 늘 같다.
짧은 열광, 과대평가, 투자자들의 실망, 긴 겨울.
다만 이번 여름이 이전과 다른 점이 있다면, 전 세계의 자본과 인재가 전례 없는 규모로 몰리고 있다는 것이다. 이 속도라면 지금 읽고 있는 이 책의 내용도, 이 글도, 몇 달 후면 '옛날이야기'가 될 수 있다.
균형을 잡아야 할 때다.
인공지능이 이룬 지각 영역의 성취는 분명 찬란하다.
의료 스캔 이미지에서 암세포를 찾아내고, 실시간으로 음성을 문자로 바꾸는 기술. 이건 인류 기술의 정수라 불러도 좋다.
문제는 인공지능이 '사회적 결과'를 예측하겠다고 나설 때 시작된다.
범죄 재범률을 맞히겠다는 알고리즘, 취업 적합도를 판별하겠다는 시스템.
이것들은 실은 인사팀의 점성술이거나 80년대 잡지에 실린 연애 심리 테스트를 이름만 바꿔놓은 것에 불과할 때가 많다.
인공지능은 사람이 할 수 없는 것은 할 수 없다. 적어도 아직까지는.
인공지능은 결국 인간의 데이터로 학습하고, 인간의 판단을 모방한다.
인간이 풀지 못한 문제의 정답을 기계에게 가르칠 방법은 없다.
더 빠르게, 더 많이 처리할 수는 있지만, 인간의 지적 한계를 마법처럼 뛰어넘지는 못한다.
지금의 인공지능은 자의식을 가진 생명체가 아니라, 인간이 쥐여준 규칙과 인간이 만들어낸 데이터 안에서만 움직이는 '인간의 똑똑한 도구'라는 사실을 잊으면 안 된다.
프린스턴 대학의 '취약 가정 연구'에 따르면, 13,000개의 변수를 쏟아부은 복잡한 인공지능 모델의 예측력이 고작 4개의 변수만 쓴 100년 전 단순 통계 공식과 별반 다르지 않았다.
재범률을 예측한다는 컴파스 시스템 역시 137개의 변수를 동원했지만, 나이와 전과 기록이라는 단 2개 변수만 활용한 단순 회귀 모델보다 정확도가 낮았다(65% 대 67%).
화려한 포장지를 뜯어보니 낡고 초라한 수학 공식이 나온 셈이다.
미래의 불확실성을 연산 능력으로 극복할 수 있다는 믿음. 그것은 기술이 낳은 현대판 미신일 뿐이다.
인공지능의 성능은 결국 학습 데이터의 질과 양에 달려 있다.
더 많은 데이터, 더 좋은 데이터를 먹여야 더 똑똑해진다.
2025년, 골드만삭스의 최고 데이터 책임자 니마 라파엘은 충격적인 한마디를 던졌다.
"우리는 이미 데이터가 바닥났다."
인터넷에서 긁어모을 수 있는 양질의 텍스트 데이터는 사실상 고갈 단계에 접어들었다는 뜻이다.
에포크 연구소의 분석에 따르면, 인간이 작성한 공개 텍스트 데이터는 빠르면 2026년, 늦어도 2032년이면 소진될 전망이다.
한편, 존스 홉킨스 대학의 2026년 연구는 흥미로운 반론을 제시한다.
인공지능에게 정말 필요한 건 방대한 데이터가 아니라, 인간의 뇌처럼 효율적으로 학습하는 구조일 수 있다는 것이다. 데이터를 더 많이 쏟아붓는 게 답이 아니라, 학습하는 방식 자체를 바꿔야 한다는 이야기.
결국 양으로 해결되지 않는 문제를 양으로 해결하려 했던 셈이다.
개인적으로 이 대목이 묘하게 걸린다.
한때는 알고리즘을 개선하면 인공지능이 똑똑해질 거라 믿었다.
그 믿음이 한계에 부딪히자 데이터의 양이 답이라는 새로운 신앙이 등장했다.
그런데 이제 그 데이터마저 바닥나니, 다시 학습 구조가 중요하다고? 열광과 실망 사이를 오가는 이 진자운동.
인공지능의 역사는 결국 '이번엔 진짜야'라는 확신이 반복적으로 깨지는 역사인지도 모른다.
더 심각한 문제가 하나 더 있다. 바로 인공지능의 편향성.
현재 인공지능 기술은 종종 '블랙박스'라고 불린다.
이유는 기술적 구조에 있다. 현대 인공지능의 핵심인 심층 신경망은 수백만에서 수십억 개의 매개변수가 서로 얽히고 곱해지며 결과를 만든다.
문제는, 이 과정이 너무 복잡해서 설계자조차 왜 그런 결론이 나왔는지 설명할 수 없다는 것이다.
입력과 출력은 보이지만, 그 사이의 추론 과정은 사실상 암호 속에 묻혀 있다.
마치 재료를 넣고 요리는 보이지만, 릴 안을 들여다볼 수 없는 압력밥솔 같은 셀이다. 그래서 블랙박스다.
그리고 이 블랙박스 안에 편향이 숨어들면, 찾아내기가 극히 어렵다.
아마존의 채용 인공지능이 여성 지원자를 체계적으로 불이익 처리한 사례 등, 설계자의 편향된 데이터가 기술의 이름으로 차별을 정당화한다. 이미 영리한 취업 준비생들은 이력서 배경에 흰색 글씨로 '옥스퍼드'나 '케임브리지' 같은 단어를 몰래 심어두는, 일종의 '알고리즘 해킹'을 공유하고 있다.
이제 인공지능의 투명성은 선택이 아니라 생존의 문제다.
유럽연합이 사회적 신용 점수 산출과 생체 인식 활용을 법적으로 제한하려는 이유도 여기에 있다.
인공지능의 결정 과정을 인간이 이해할 수 있어야 한다는 '설명 가능한 인공지능'의 도입은 더 이상 학계의 논쟁거리가 아니다. 사회적 합의의 필수 조건이다.
인공지능은 세상을 구원할 만병통치약이 아니다. 그렇다고 무의미한 사기극도 아니다.
지각과 효율의 영역에서는 위대한 도구다.
하지만 인간의 운명을 예단하려는 순간, 여전히 위험한 뱀 기름(=가짜 만병통치약)이 된다.
그리고 아무리 정교한 알고리즘이라 해도, 인간 자체가 풀지 못한 문제까지 대신 풀어줄 수는 없다.
도구의 천장은 결국 그것을 만든 인간의 천장이다. 아쉽게도 인공지능은 여전히 '도구'의 상태에 머물러 있다.
우리는 인공지능에게 삶의 주도권을 넘겨줄 준비가 되었는가?
기술의 화려한 조명을 끄고, 그 아래 숨겨진 본질을 직시할 때, 비로소 우리는 기술에 휘둘리는 노예가 아닌 주인이 될 수 있다.
지금 우리에게 필요한 건 더 많은 데이터가 아니다.
기술의 한계를 인정하는 인간의 지혜다.
물론, 이 책의 비판도, 이 글의 사족도, 몇 달만 지나면 '그때는 그랬지'라는 옛날이야기가 될 수 있다.
기술의 유일하게 확실한 특성이 있다면, 그것은 우리의 예측보다 항상 빠르게 변한다는 것이다.
2026년, 인공지능은 '도구'를 뛰어넘어 '새로운 지능'으로 진화할 것인가?
Princeton University Press 공식 페이지
Goldman Sachs Exchanges 팟캐스트 (2025.9.30)