시민도서선정단 I차 대상 도서 독서 후기 및 평가
박태웅의 《AI 강의 2025》 비평적 고찰
Intro...
실용서가 지니는 유익은 분명하다. 무엇보다 시류에 부합하는 핵심 주제를 다루었다는 점은 높이 평가할 만하다. 더욱이 독자의 깊이 있는 이해를 돕기 위한 저자의 노력 역시 여러 대목에서 선명하게 드러난다.
그러나 문제는 과유불급에 있다.
일반 독자에게 이 정도 수준의 AI 지식이 과연 요구되는가를 생각해 보면, 오히려 정보의 과밀이 핵심 메시지를 흐릿하게 만드는 느낌이 있다. 집중이 분산되고, 때로는 지루함을 유발하기까지 한다. 물론 저자의 해당 인더스트리에 대한 이해와 전문성은 여실히 드러난다. 다만 그 깊이가 독자인 내게 필수적인 수준인가라는 점에서는 의문이 남는다는 것이다.
아울러 실용서 장르가 지닌 고유한 한계도 뚜렷해 보인다. 지식 전달에 지나치게 무게중심이 실리면서, 정작 독자 스스로 사유할 수 있는 여지를 남겨두지 않는다. 독자 스스로 생각의 지평을 확장하게 만드는 지적 자극이라는 측면에서는, 실용서라는 장르적 제약이 분명하다. 그만큼 특정 계층의 독자에게는 접근의 폭이 제한적일 수밖에 없겠다.
내용을 좀 더 세밀하게 들여다보자.
0.
박태웅의 《AI 강의 2025》는 인공지능(AI)이라는 복잡하고 전문적인 주제를 일반 대중에게 전달하려는 지적 시도로 읽힌다. 저자가 밝히듯, 이 책은 2023년 베스트셀러였던 전작 《박태웅의 AI 강의》의 분량을 거의 두 배로 확장하고 최신 AI 트렌드를 광범위하게 반영해 기술적 깊이를 한층 더했다는 점에서 주목된다. 저자는 AI의 기본 원리를 청소년과 일반 독자들도 이해할 수 있도록 구성했다고 강조하며, ‘중학생도 이해할 수 있을 정도’의 평이한 설명을 구현했다고 자평한다.
그러나 이 책을 단순한 기술 입문서로만 평가하기는 어렵다. 분량의 확장과 내용의 심화는 단순한 업데이트가 아니라, 저자의 전략적 의도가 반영된 선택으로 보인다. AI가 사회 전반에 미치는 영향이 확장되고 복잡성이 더해지는 현재의 환경에서, 저자는 이 책을 기술 해설서의 범주를 넘어 사회 비평서의 성격으로 진화시키려 했던 것 아닌가 싶다.
그 결과, 독자는 AI의 기술적 원리뿐 아니라 데이터 편향, 개인정보 침해, 자동화가 불러올 고용 구조의 재편 등 다양한 사회적·윤리적 이슈를 포괄적으로 마주하게 된다. 이러한 구성은 독자에게 AI가 지닌 긍정적 가능성과 위험 요소를 함께 숙고하게 만드는, 보다 입체적인 시각을 제공한다는 점에서 긍정적이다.
1.
저자는 AI의 위험성을 논하면서 그 등급을 핵전쟁이나 팬데믹과 같은 전 지구적 재앙의 수준으로 상향 조정한다. 제프리 힌튼, 얀 르쿤 등 AI 선구자들의 발언을 인용하며 “AI로 인한 멸종 위험 완화는 핵전쟁·팬데믹 대응과 동일한 급의 글로벌 과제가 되어야 한다”고 강조하는 것도 같은 맥락이다.
이러한 정리는 AI가 더 이상 산업 효율성을 높이는 단순한 혁신 도구가 아니라, 인류 문명의 지속 가능성 자체를 위협할 수 있는 구조적 리스크로 간주되기 시작했음을 의미한다. 핵전쟁이나 팬데믹 대응이 기술적 해법만으로는 불가능하고, 국제적 협약·제도·윤리적 합의를 통해서만 관리될 수 있다는 점을 고려하면, 저자는 AI 문제의 본질이 기술 통제가 아닌 사회적 합의와 거버넌스 구축의 실패에 있다고 진단한다. 기술의 속도에 뒤처진 인류의 사회적 미성숙이야말로 AI 시대의 근본적 위협이라는 강력한 사회학적 비판을 제시하는 셈이다.
—
저자가 “AI의 미래는 기술이 아니라 사회 체계에 달려 있다”고 단언하며 공정한 시스템 구축의 선행을 주장하는 핵심 근거는, AI가 기존의 사회적 불평등을 증폭시킬 수 있다는 구조적 우려에 기반한다.
AI는 중립적 기술이 아니며, 학습 데이터가 지닌 편향과 왜곡을 고스란히 내면화한 채 작동하는 블랙박스인 점에서다. 특히 거대언어모델(LLM)이 부유한 국가와 특정 커뮤니티의 지식 생산 관행을 중심으로 데이터를 동질화할 가능성은 AI 기술의 신뢰성 문제가 곧 사회적 정의 문제로 직결됨을 시사한다(편향). 기술 접근성이 특정 국가·계층에 집중될수록, 소외 집단은 더욱 취약해질 수밖에 없다는 의미다(소외).
저자가 제시하는 '거대 AI의 그늘 아래에서 언제 대체될지 모를 위험을 감수할 것인가, 아니면 바깥에서 굶어 죽을 위험을 감수할 것인가'라는 극단적 선택지는 이러한 구조적 양극화를 상징적으로 표현한다. AI가 생산성을 극대화할수록 노동 시장의 잉여 계층은 확대되고, 이들이 겪는 존재론적 불안은 더욱 심화된다. 결국 AI 기술의 효율성이 사회적 연대와 인간 존엄성을 압도하는 현실을 넘어서기 위해서는, 기술 통제보다 공정하고 안정적인 사회 체계의 구축이 먼저 이루어져야 한다는 것이 저자의 주장의 핵심이다.
—
AI의 초국가적 특성은 개별 국가의 규제로는 한계가 있음을 보여준다고 저자는 진단한다. 저자는 프라이버시, 책임성, 안정성, 보안 등 AI 윤리의 핵심 주제를 언급하며, 무분별한 기술 발전을 관리할 국제적 거버넌스의 필요성을 강조한다.
그 가운데서도 EU의 AI법과 ‘브뤼셀 효과’를 언급하는 지점은 특별히 중요하다. 이는 EU가 강력한 규범을 선제적으로 마련함으로써, 그 기준이 사실상 글로벌 표준으로 확장되는 현상을 의미한다. 저자는 이 사례를 통해, 앞으로의 AI 시대는 기술 혁신 경쟁뿐 아니라 국제 규범 경쟁의 시대이기도 하다는 점을 강조한다.
AI 기술이 특정 강대국의 가치관과 편향을 전 세계에 투영하는 것을 막기 위해서라도, 윤리적 기준의 국제적 동질화는 필수적 과제이다. 이는 기술의 문제라기보다 사회 체계를 설계하고 조정하는 인류 공동의 과제임을 상기시킨다.
참고) 브뤼셀 효과(Brussels Effect)란 유럽연합, EU가 제정한 규제가 EU 내부에만 적용되는 것이 아니라, 글로벌 기업과 국가들이 자발적으로 EU 규제를 따르게 되는 현상을 말함. 즉, EU가 소비자 보호, 환경 보호, 개인정보 보호 등 보편적 가치에 기반한 규범을 만들면, EU 시장에 진출하려는 글로벌 기업들이 이를 전 세계적으로 준수하게 되어 EU의 규제가 사실상 국제 표준이 되는 것을 의미.
2.
저자는 “AI는 인간을 대체하는가, 보완하는가?”라는 근본적 질문을 제기한다. 이 질문은 단순히 노동 소외 문제를 넘어, 노동을 통해 자기실현과 존재의 의미를 구축해 온 인간이 AI 시대에 어떤 방식으로 가치의 재정립을 시도해야 하는지를 묻는다.
앞서 논의한 ‘거대 AI의 그늘 아래에서 굶어 죽을지도 모른다’는 표현은 경제적 고용 불안정뿐 아니라, 인간 존재의 목적의식이 흔들리는 심리적 위기를 은유한다. AI가 지적 노동의 상당 부분을 효율적으로 대체할수록, 인간은 효율성의 기준 속에서 비대체성을 확보해야 하는 역설적 상황에 놓이게 되는 것이다. 결국 AI 시대의 인문학적 과제는 인간이 AI의 도구가 아닌, AI가 향해야 할 방향과 목적을 설정하는 주체로서 자신의 역할을 재정의하는 데 있다고 하겠다.
인류는 사상 유례없는 인간의 마음에 대한 실험을 마주하고 있습니다. 우리는 소셜미디어에서 한 차례 큰 실패를 했고, 지금도 그 대가를 지불하고 있습니다. 인공지능에서는 그러지 않을 수 있을까요? (400쪽)
저자는 AI 기술의 사회적 논의를 전개하며 한국 사회의 기초 과학 및 인재 양성 구조에 대한 날카로운 비판을 제시한다. 국내 대학의 기초과학 학과가 절반도 남지 않았다는 사실, 박사과정 인재들이 해외 유학을 당연시하는 현실을 지적하며, 글로벌 대학들이 세계의 인재를 끌어모으는 상황과 대비시킨다.
정부의 정책은 예측 가능해야 합니다. 연구는 최소한 3년 이상 지속이 되는데, 정책은 해마다 널을 뛴다면 누가 긴 호흡으로 연구를 할 수 있겠습니까. 과학기술의 뿌리를 뒤흔드는 큰 실착입니다.(388쪽)
이는 단순한 기술 정책 비판이 아니라, 국가 지성의 자립 능력 상실을 우려하는 인문학적 경고로 읽힌다. 저자가 “언젠가 눈 떠보니 다시 후진국이 되어 있을지 모른다”고 경고하는 이유가 여기에 있다. 기초과학 기반의 붕괴는 기술적 후진화를 넘어, 지적 완충 지대의 소멸을 의미한다.
—
책은 AI 시대에 인문학적 소양의 가치를 강조하는 것으로 읽힌다. 인간만이 할 수 있는 경청과 토론, 그리고 시스템적 사고와 올바른 해석 등 자기만의 지식 체계를 구축할 능력이 무엇보다도 필요하다는 얘기다.
AI가 방대한 지식을 빠르게 검색·요약하고 심지어 정교한 글쓰기까지 수행하는 시대에 단순 지식 습득 능력은 상대적 가치를 잃고 있다. 이에 비해 강조되는 능력은 지식을 비판적으로 수용하고 재해석하는 사고력(How to think), 그리고 타인과의 상호작용 속에서 협의와 공감을 이끌어내는 사회적 지능인 것이다.
‘토론’과 ‘경청’은 단순한 교실 활동을 넘어, AI의 결정적 약점을 돌파하는 인간 고유의 능력이다. 이러한 교육 철학은 AI로 인한 노동 소외와 대체 불안에 맞서는 심리적 방어 기제이자, 인간 주체성을 회복하는 실천적 전략이 된다.
지식을 스스로 생산하거나 비판적으로 평가할 능력을 잃으면, 우리는 선진국이 만든 기술·플랫폼·규범에 종속될 수밖에 없고, 이는 곧 미래를 스스로 설계할 수 없는 주체성의 약화로 이어진다. AI 시대의 지적 종속은 기술적 문제가 아니라 인문학적 위기라는 점을 환기시키는 대목이 되겠다.
3.
정리해 보자...
박태웅의 《AI 강의 2025》가 시민사회에 남긴 가장 중요한 공헌은 AI 담론의 중심축을 공학·산업의 영역에서 사회학·윤리의 영역으로까지 확장시켰다는 데 있다. 저자는 AI 기술 자체는 중립적일 수 있을지 모르나, 그 적용과 결과는 결코 중립적일 수 없음을 반복해서 강조한다. AI의 미래는 기술 발전의 속도에 의해 결정되는 것이 아니라, 그 기술이 불러올 불평등과 위험을 어떻게 대응하고 공정하게 관리하느냐에 달려 있다는 점을 명확히 제시한다.
저자가 AI의 위험을 핵전쟁과 팬데믹에 비견하며 기술적 해법이 아닌 사회적 성숙도를 요구한 것은, AI로 인한 문제는 기술 업계 내부의 논리만으로는 결코 해결할 수 없다는 근본적인 입장에서 비롯된다. 이는 AI 시대를 기술 혁신의 시대가 아니라 ‘윤리와 거버넌스의 시대’로 재정의하는 선언적 메시지이기도 하다.
결국 저자가 독자에게 남기는 최종 메시지는 명확해 보인다.
일반 시민은 기술의 수동적 수용자나 피해자가 아니라, AI의 방향을 결정할 능동적 주체가 되어야 한다는 것이다. 기술을 둘러싼 사회적 규범을 형성하고, 공정성과 안전성을 담보할 체계를 만드는 일은 기술자나 정책 담당자만의 몫이 아니라 우리 모두의 책무임을 일깨우는 것이다.
—
이러한 경청, 토론, 그리고 자기만의 지식 체계 구축은 AI의 효율성에 맞서 인간의 비대체성을 확보하는 최소한의 인문학적 저항이자 생존 전략이다. 시민들은 AI의 위험성을 인지하는 데서 멈추지 말고, 규제와 거버넌스 논의에 적극적으로 참여하며, AI가 결코 모방할 수 없는 비판적 사고·공감·주체적 해석 능력을 꾸준히 갈고닦아야 한다.
앞서 언급했듯, 이 시대에 가장 중요한 인문학적 소양은 사고력과 해석력이다. 아무리 AI 기술이 고도화하더라도, 이 두 영역만큼은 인간의 고유성이 작동하는 지점이며, 동시에 세계 시민으로, 민주시민으로 살아가기 위해 반드시 갖춰야 할 핵심 역량이기 때문이다.
현상을 정확히 읽어내는 ‘시스템적 사고력’과 복잡한 세계를 의미화하는 ‘해석력’은 AI 시대에도 대체 불가능한 인간의 기반 능력이다. 이 역량을 강화하는 노력을 게을리하지 않을 때, 우리는 기술의 속도에 압도되지 않고 오히려 AI 시대의 주체로 우뚝 설 수 있을 것이다.
—
추천 평가를 해야 할 시점이다.
주제의 시의성은 우수하고 필요할만하다.
다만, 주제별 너무 깊게 들어간 설명은 자칫 장황해질 소지가 다분하다.
과연 일반 시민이 이런 정도까지 알아야 하는가 하는 점과 독자 스스로가 생각하도록 유도하는 점에서는 미흡하다는 평가를 할 수밖에 없어 보인다.
잠정적으로는 보류 의견이다.
[참고]
◻︎ 선정을 위한 (임시) 도서평가점수 = 88점