『Supremacy』 파미 올슨의 책을 읽고...
지난주, APEC CEO 서밋 경주를 방문했던 NVIDIA 젠슨 황 CEO가 이슈를 몰고 다녔다.
더구나 한국에 26만장의 GPU를 우선 공급한다는 발표는 뉴스를 뜨겁게 달구기도 했다.
세상은 온통 AI 이슈에 매몰되고 있는 느낌이다.
그 흐름을 한걸음 떨어져 바라보게 만드는 책이 있다.
바로 파미 올슨의 『패권』이다.
이 책은 AI 시대의 권력 구조와 윤리의 문제를 언론인의 시선으로 해부한 탐사 보고서다. OpenAI와 DeepMind의 이상주의적 출발이 어떻게 거대 자본의 이해관계 속에서 ‘패권 경쟁’으로 변질되었는지를 파고든다.
올슨은 AI를 단순한 기술 혁신이 아니라,
- 거대 기업의 지배력 확대
- 데이터 편향과 책임 회피라는 윤리적 공백
- 머스크·페이지·나델라 등 기술 거물들의 권력 투쟁
- 트랜스포머 기술을 둘러싼 기술 패권의 재편
- AI 영향력에 대한 투명성 부재, 등의 축을 통해 분석한다.
결국 『패권』은 AI를 인류의 진보를 위한 기술이 아니라, 권력과 자본이 주도하는 새로운 전쟁의 무대로 보여준다.
AI의 미래를 이해하려면, 이제 기술이 아니라 그 기술을 누가 통제하고 있는가를 먼저 물어야 한다는 것을.
이 강연 영상중에 강연자는 흥미로운 이미지를 하나 제시한다. 미국 S&P 500 기업의 마켓 벨류 지형으로 매우 의미 심장하다.
당연하게도, 이런 상황이 정상 상태가 아님은 누구나 쉽게 짐작할 수 있을 것이다.
어쨌든...
파미 올슨의 『패권』이 폭로한 4가지 충격적인 진실
요약
파미 올슨의 『패권』은 범용 인공지능(AGI) 개발의 현실을 날카롭게 파헤친다. 인류의 문제를 해결하겠다는 고귀한 이상으로 시작된 AI 연구는, 결국 마이크로소프트와 구글이 주도하는 냉혹한 패권 경쟁의 무대로 변질되었다. OpenAI의 샘 알트만과 DeepMind의 데미스 하사비스가 내세웠던 ‘인류를 위한 기술’이라는 신념은 자본 조달과 시장 지배의 논리 앞에 무너졌다.
올슨은 AI 커뮤니티가 ‘AI 안전’이라는 장기적 위협 담론에 몰입한 나머지, 데이터 편향·정보 오염·대규모 실업과 같은 현실적이고 즉각적인 윤리 문제를 의도적으로 외면하고 있다고 지적한다. 이는 책임감 있는 혁신 기업이라는 이미지를 얻기 위해 단기적 수익을 극대화하고 책임을 회피하려는 빅테크의 전략적 위선에 다름 아니다.
결국 『패권』은 AI의 통제권이 인류 전체가 아닌 소수 독점 기업의 손아귀에 집중되고 있음을 경고한다. 투명성과 책임이 결여된 기술 발전은 더 이상 인류의 도약이 아니라, 착취와 통제의 도구로 전락할 위험에 처해 있다.
인류의 미래를 결정할 이 위대한 기술의 주인은 누구인가?
『패권』은 그 불편한 질문을 우리 앞에 던진다.
인공지능(AI) 개발은 흔히 인류의 진보를 위한 선의의 기술 경쟁으로 묘사된다. 더 나은 미래를 꿈꾸는 뛰어난 인재들이 연구실에서 펼치는 고귀한 도전으로 여겨지는 것이다. 그러나 블룸버그 칼럼니스트 파미 올슨의 저서 『패권』은 이러한 낭만적인 믿음이 얼마나 허구적인가를 드러낸다.
올슨은 AI 개발의 이면에 거대 기술 기업의 독점, 통제 불가능한 야망, 그리고 윤리적 타협이 자리하고 있음을 폭로한다. 인류를 위한 기술이라는 이상은 이미 자본과 권력의 논리에 포획되었으며, AI 경쟁은 더 이상 인류 전체의 진보를 위한 경주가 아니라 소수 빅테크의 패권을 공고히 하기 위한 전쟁으로 변질되었다.
『패권』은 우리에게 불편한 질문을 던진다.
“AI의 발전은 정말 인류를 위한 것인가, 아니면 권력을 위한 것인가?”
이제 우리는 AI 경쟁의 실체를 냉정하게 직시해야 한다.
다음에서 살펴볼 네 가지 진실은, 그 이면에 숨겨진 기술 권력의 본질을 적나라하게 보여준다.
check point 1. 인류를 구할 열쇠는 어떻게 거대 자본의 패권 도구가 되었나
OpenAI와 DeepMind의 창립자들은 처음 범용 인공지능(AGI) 개발에 착수할 때, 암·빈곤·기후 변화 등 인류가 직면한 난제를 해결하겠다는 유토피아적 이상을 내세웠다. 그러나 파미 올슨은 이러한 비전이 일론 머스크, 래리 페이지, 피터 틸 등 실리콘밸리 엘리트 집단의 내부 논리 속에서 형성된 한정된 이상주의였다고 지적한다. 저자에 따르면, 그들의 선의는 처음부터 자본과 권력의 생태계 안에서 길러진 것이었다는 것이다.
이 ‘인류 구원’의 서사는 곧 자본의 논리 앞에서 무너졌다.
AGI 개발에는 막대한 자금이 필요했고, 이를 위해 OpenAI는 마이크로소프트와 제휴했고 DeepMind는 구글에 인수되었다. 그 결과 인류를 위한 기술은 거대 기업의 시장 지배력과 기술 패권을 강화하는 수단으로 전락했다.
이제 AGI는 더 이상 인류의 문제를 해결하기 위한 도구가 아니다.
그것은 세계에서 가장 강력한 두 기업이 미래의 권력을 선점하기 위해 휘두르는 경제적 무기가 되었다.
인류의 이익을 내세운 선한 의도는, 결국 자본 조달의 압력과 시장 경쟁의 현실 앞에서 철저히 굴복하고 말았다.
check point 2. AI 안전 논쟁은 더 시급한 문제를 가리는 교묘한 연막이다
오늘날 AI 커뮤니티 내부에서는 우선순위의 전도가 벌어지고 있다.
샘 알트만을 비롯한 억만장자들과 AI 리더들은 인공지능이 장차 인류를 멸망시킬 수 있다는 장기적·존재론적 위험, 이른바 ‘AI 안전’ 문제를 앞다투어 강조한다. 이러한 담론의 철학적 토대에는 효율적 이타주의 운동이 자리하고 있다.
참고) 효율적 이타주의(Effective Altruism)란 이타적 행동을 할 때 감정이나 도덕적 의무에만 의존하지 않고, 그 행동이 실질적으로 얼마나 많은 사람들에게 도움을 주는지, 즉 사회적 영향력을 최대화하는 데 초점을 맞춘 현대적인 이타주의 접근법
그러나 파미 올슨은 이 담론이 현실의 긴급한 문제를 가리는 정교한 연막이라고 비판한다.
효율적 이타주의는 겉으로는 더 나은 인류와 공정한 미래를 외치지만, 실제로는 기술 불평등과 편향된 시스템을 정당화하는 이데올로기로 작동한다. 그 결과, 이미 우리 사회에 깊숙이 침투한 AI의 현실적 부작용 즉, 훈련 데이터의 편향으로 인한 소수자 차별, 가짜뉴스 확산과 정보 오염, 자동화로 인한 대규모 실업 등으로 그 부작용은 철저히 뒷전으로 밀려난다.
기업들이 이런 전략을 택하는 이유는 명확하다.
현실의 윤리 문제를 해결하려면 데이터 정제와 검증 시스템 구축 등 비용과 시간이 많이 드는 구조적 개혁이 필요하다. 반면, “AI가 언젠가 인류를 멸망시킬 수 있다”는 추상적 공포를 부각하면 대중과 규제 당국의 관심을 장기적 위험으로 돌릴 수 있다. 그 사이 기업은 즉각적인 책임을 회피하면서도 책임 있는 혁신 기업이라는 이미지를 손쉽게 확보한다.
결국 AI 안전 논쟁은 인류의 미래를 걱정하는 듯 보이지만, 실제로는 현재의 불평등과 피해를 은폐하는 전략적 언어가 되어버렸다. AI의 장기적 위험보다 지금 이 순간 벌어지고 있는 현실의 부작용이 훨씬 더 심각하다는 점에서, 이 연막은 기술 윤리의 본질을 흐리는 위험한 자기기만이다.
check point 3. AGI, 구원자인가 엘리트의 망상인가
샘 알트만과 데미스 하사비스에게 AGI(범용 인공지능)의 구축은 단순한 기술 개발이 아니었다.
그것은 인류에게 무한한 풍요와 구원을 가져올 ‘신적 존재’를 창조하는 일, 곧 하나의 신앙 행위였다.
이들에게 AGI는 인류의 모든 문제를 해결하고 새로운 시대를 열 메시아적 구원자로 여겨졌다.
파미 올슨은 이러한 믿음이 기술을 통해 인간의 한계를 넘어 새로운 존재로 진화할 수 있다는 트랜스휴머니즘 사상에 깊이 뿌리내리고 있다고 분석한다. 그러나 그녀는 이 구원론적 비전이 매우 위험한 자기기만이라고 경고한다. “AGI가 언젠가 암과 빈곤을 해결할 것”이라는 거대한 약속은, 지금 당장 기술이 초래하고 있는 현실의 문제 즉, 데이터 편향으로 인한 차별, 노동 시장의 붕괴, 정보 통제의 심화에 대한 책임 회피의 명분으로 작동하기 때문이다.
참고) 트랜스휴머니즘(Transhumanism)은 과학기술을 활용해 인간의 정신적, 육체적 능력을 향상시키고, 노화·질병·고통 등 인간 조건의 본질적 한계를 극복하려는 지적·문화적 운동
결국 AGI를 향한 엘리트들의 신앙은 ‘인류 구원’이라는 서사로 현실의 피해를 합리화하는 이데올로기가 되었다. 이들은 기술의 부작용을 위대한 진보를 위한 불가피한 희생으로 포장하며, 종교적 언어와 이타주의의 미학을 빌려 기술 권력의 정당성을 신성화한다. 그 결과 AGI는 인류의 구원자가 아니라, 소수 엘리트의 믿음과 권력을 유지하기 위한 새로운 종교로 변해가고 있다.
check point 4. 의도적으로 감춰진 진짜 영향력
파미 올슨이 『패권』에서 제기하는 가장 심각한 문제는 AI 산업의 구조적 불투명성이다.
오늘날 어떤 기업도 자사의 거대 언어 모델(LLM)이 사회의 어느 산업과 시장, 그리고 지역에 구체적으로 어떤 영향을 미치고 있는지를 공개하지 않는다.
이 정보의 비공개는 단순한 기업 전략이 아니라, 사회적 통제를 불가능하게 만드는 의도적 차단이다.
사회와 규제 당국은 AI가 실제로 어떤 변화를 일으키고 있는지 파악할 수 없으며, 그 영향력에 대한 판단은 오로지 추측에 의존할 수밖에 없다. 결과적으로 실질적인 규제와 책임성 확보는 원천적으로 봉쇄된다.
그 사이 AI 기술의 발전은 소수 거대 기업의 손에 집중되고, 그 경제적·정치적 영향력은 완전히 베일 뒤로 숨겨진다. 인류는 그들이 조종하는 기술의 방향을 제대로 인식하지 못한 채, 스스로의 미래를 통제할 수 없는 상태로 내몰리고 있다.
우리는 지금 눈을 가린 채 절벽을 향해 달려가는 인류와 다르지 않다.
기술의 진보가 아니라, 투명성의 결여와 권력의 독점이 우리를 위험으로 몰아넣고 있는 것이다.
파미 올슨의 『패권』은 인공지능(AI)의 역사를 이상에서 권력으로, 이상주의에서 패권주의로 바뀌어온 과정으로 그려낸다. 인류의 진보를 꿈꾸며 시작된 AI 개발은 이제 소수 거대 기업의 이익과 지배력을 강화하기 위한 냉혹한 권력 경쟁의 도구로 전락했다. 그 과정에서 가장 중요한 가치였던 윤리적 책임과 사회적 투명성은 철저히 밀려났다.
올슨은 기술의 눈부신 진보 뒤편에 우리가 쉽게 보지 못하는 어둡고 거대한 그림자, 즉 자본의 독점과 통제의 문제를 드러낸다. AI는 더 이상 단순한 기술 혁신이 아니라, 인류의 미래를 좌우할 권력의 문제가 되어가고 있다.
결국 이 책이 던지는 핵심 질문은 하나다.
“AI의 발전이 인류의 미래를 결정짓는 이 순간,
우리는 그 통제권을 누구에게,
그리고 어떤 대가로 넘겨주고 있는가?”
이 질문은 AI의 미래가 기술이 아닌 인간의 선택에 달려 있음을 상기시킨다.
참고자료
1. Supremacy: AI, ChatGPT, and the Race that Will Change the World | by Parmy Olson, 2024
2. Thinking Digital Conference: ChatGPT, Deepmind and the AI Race that will Change the World - Parmy Olson