모두가 병목인 시대
오래된 농담이 하나 있다. "모든 조직에는 반드시 병신의 총량이 있다. 만약 네 주변에서 그 사람을 찾을 수 없다면, 그건 네가 그 병신이기 때문이다." 거칠지만 묘하게 정확한 이 관찰은 조직론의 비공식 공리처럼 오랫동안 회자되어 왔다. 어떤 팀에든 저성과자는 존재하고, 조직의 평균 역량은 결국 가장 느린 구성원의 속도에 수렴한다는 뼈아픈 진실을 담고 있다.
그런데 2026년 현재, 이 법칙의 의미가 근본적으로 바뀌고 있다. 과거의 '병목'은 명확했다. 일을 못 하는 사람, 실수가 잦은 사람, 학습이 느린 사람이었다. 그런데 AI 에이전트가 조직의 거의 모든 지식노동 영역에 침투하면서, 병목의 정의 자체가 뒤집혔다. 이제 조직의 병목은 일을 못 하는 사람이 아니다. AI에게 일을 맡기지 못하는 사람, AI의 결과물을 판단하지 못하는 사람, 또는 AI가 자신보다 잘한다는 사실을 인정하지 못하는 사람이 새로운 병목이 되었다.
이 전환은 단순한 도구 교체가 아니다. 산업혁명이 육체노동의 가치 체계를 해체했듯, AI는 지식노동의 가치 체계를 해체하고 있다. 20년간 쌓아올린 전문성이 하룻밤 사이에 API 한 줄로 대체되는 일이 실제로 벌어지고 있고, 조직 내에서 가장 똑똑하다고 여겨지던 사람이 하루아침에 가장 느린 사람으로 전락하는 역전이 일어나고 있다. 잭 도시의 Block은 AI를 이유로 전체 직원의 거의 절반을 해고했고, 세일즈포스 CEO 마크 베니오프는 "AI 덕분에 인력이 덜 필요하다"며 4,000명을 줄였다. IgniteTech는 AI 도입을 거부한 직원 80%를 해고한 뒤, 2년이 지난 지금도 같은 결정을 다시 내리겠다고 말한다.
더 흥미로운 것은 이 현상이 조직의 위에서 아래까지, 임원실에서 신입 자리까지 동시에 관통한다는 점이다. 임원은 AI 전환을 말하면서 워크플로를 바꾸지 않고, 중간관리자는 정보 중개라는 자신의 존재 이유를 AI에게 빼앗기고 있으며, 지식노동자는 AI 결과물을 검증하지 못한 채 그대로 제출하고, 신입은 아예 조직에 들어올 문이 닫히고 있다. 그리고 AI 자체도 할루시네이션과 보안 취약점으로 자기만의 병목을 생성한다. 모두가 동시에 병목이다. 문제는 그 사실을 자각하고 있는 사람이 극소수라는 것이다.
"AI가 사람을 대체하는 게 아니라 보강하는 것"이라는 말은 2024년까지만 해도 기업 경영진의 공식 수사였다. 2025년에 그 수사는 산산조각 났다. 2025년 한 해 동안 미국에서 AI를 이유로 해고된 인원은 5만 명을 넘겼고, 이는 2년 전의 12배에 달하는 수치다. 그러나 숫자보다 더 충격적인 것은 개별 기업에서 벌어진 구조조정의 속도와 노골성이다.
2026년 2월, 잭 도시가 이끄는 Block(구 Square)은 전체 직원의 약 40%인 4,000명을 해고했다. S&P 500 기업 중 AI를 직접적 사유로 내세운 최대 규모의 구조조정이었다. 도시는 "훨씬 작은 팀이 우리가 만들고 있는 도구를 사용하면 더 많은 일을, 더 잘 해낼 수 있다"고 말했고, 남은 전 직원에게 생성형 AI 도구의 일상적 사용을 의무화하면서 준수 여부를 인사평가에 연동했다. 발표 직후 Block의 주가는 24% 급등했다. 월가는 사람을 자르고 AI를 넣는 기업에 보상했다.
세일즈포스의 경우는 더 적나라했다. CEO 마크 베니오프는 팟캐스트에서 고객 지원 인력을 9,000명에서 약 5,000명으로 줄였다고 밝히며 "AI 때문에 인력이 덜 필요하다"고 말했다. 그런데 불과 몇 주 전, 같은 베니오프가 공개 석상에서 "AI가 화이트칼라 노동자의 대규모 해고를 초래하지 않을 것"이라고 선언한 바 있었다. 말과 행동 사이의 간극이 이 정도라면, 기업이 발표하는 'AI 보강론'을 그대로 신뢰할 사람은 없다.
교육 기업 Duolingo의 사례는 대체의 논리가 어떻게 점진적으로 확장되는지를 보여준다. CEO 루이스 폰 안은 2025년 4월 'AI-first' 메모를 공개하며, AI가 처리할 수 있는 업무를 수행하던 계약직을 점진적으로 중단하겠다고 선언했다. 신규 채용은 해당 업무가 자동화 불가능하다는 것을 증명한 경우에만 승인하겠다고 밝혔다. 한 전직 콘텐츠 작성자는 이렇게 말했다. "많은 것이 사라질 것이다. 나는 콘텐츠 라이터였다. AI의 결과물은 매우 지루하다. Duolingo는 항상 재미있고 기발한 것으로 유명했는데." 기발함과 유머라는 인간 고유의 가치가 비용 효율이라는 단일 지표에 패배한 순간이었다.
가장 극단적인 사례는 IgniteTech에서 나왔다. CEO 에릭 본은 급여의 20%를 AI 교육에 투자했지만, 직원들의 대규모 저항에 부딪혔다. 특히 기술 인력의 저항이 가장 거셌는데, 자신들의 전문성이 평가절하되는 것에 대한 반발이 핵심이었다. 결국 본은 직원의 약 80%를 해고했고, "마음을 바꾸는 것이 기술을 가르치는 것보다 훨씬 어려웠다"고 회고했다. 흥미로운 것은 결과다. 감원 이후 IgniteTech는 75% EBITDA 마진을 기록했고, 과거 수개월이 걸리던 제품 개발을 나흘 만에 완료했다. AI를 거부한 것이 아니라, AI를 거부하는 사람이 잘린 것이다. 무능의 정의가 180도 바뀌는 장면이다.
그러나 AI 대체가 만능이 아니라는 것을 가장 극적으로 보여준 것은 핀테크 기업 Klarna의 궤적이다. 2024년 2월, Klarna의 OpenAI 기반 AI 어시스턴트는 출시 첫 달에 230만 건의 고객 대화를 처리했다. 이는 풀타임 상담원 700명 분량에 해당했다. 회사는 전체 인력을 약 40% 줄이면서도 매출은 두 배로 늘렸다. AI 전환의 교과서적 성공 사례로 전 세계 컨퍼런스에서 인용되었다.
그런데 2025년 중반, 극적인 반전이 왔다. 고객들의 불만이 폭주하기 시작했다. AI가 생성하는 답변이 지나치게 일반적이고, 복잡한 문의를 처리하지 못했다. CEO 세바스티안 시에미아트코프스키는 결국 AI 인력 감축이 지나쳤다고 인정하고 인간 상담원을 다시 채용하기 시작했다. 그는 "비용이 불행하게도 너무 지배적인 평가 기준이었다"며 "결과적으로 품질이 떨어졌다"고 시인했다. Forrester 조사에 따르면, AI 기반 해고를 서둘러 단행한 기업의 55%가 현재 그 결정을 후회하고 있다.
Klarna의 교훈은 단순하지 않다. AI가 일을 못 하는 것이 아니다. AI가 잘하는 영역과 못 하는 영역의 경계가 생각보다 빠르게 움직인다는 것이고, 그 경계를 판단하는 것 자체가 새로운 형태의 전문성이라는 것이다. CNBC가 취재한 경제학자들은 "아직 시작에 불과하다"고 경고한다. 법률, 방사선의학, 전략 컨설팅처럼 AI가 '실행'은 대체하지만 '판단'은 아직 대체하지 못하는 영역이 남아 있지만, 그 경계선은 매달 좁아지고 있다.
"AI가 판단하고, 인간이 감독한다." 이른바 Human-in-the-Loop 모델은 AI 도입의 안전장치로, 거의 모든 기업과 규제 기관이 전제하는 원칙이다. 그런데 만약 그 감독하는 인간이 실제로는 AI의 성능을 깎아내리고 있다면 어떨까. 최근 연구들은 바로 그 불편한 가능성을 데이터로 입증하고 있다.
UX 연구의 대가 야콥 닐슨은 2025년 11월 발표한 분석에서, MIT 집단지성센터의 메타분석 결과를 인용했다. 가짜 호텔 리뷰를 탐지하는 실험에서 AI 단독의 정확도는 73%, 인간 단독은 55%였다. 그런데 인간과 AI를 결합한 경우, 정확도는 73%가 아니라 69%로 떨어졌다. 인간이 개입함으로써 AI의 성능이 4%포인트 하락한 것이다. 스탠퍼드의 2025년 임상 관리 연구에서도 유사한 결과가 나왔다. 의사가 AI 챗봇과 함께 진단한 경우, 결과는 AI 단독과 차이가 없었다. 의사가 추가한 가치는 사실상 제로였다.
닐슨은 이 현상을 '평범함의 골짜기 Trough of Mediocrity'라고 명명했다. AI가 평균적 인간 역량을 넘어서는 순간, 대다수의 노동자(엘리트가 아닌)는 AI 결과물에 개입할 때 이를 개선하는 것이 아니라 악화시킨다는 개념이다. 그의 경제적 논증은 냉혹하다. AI 단독이 즉시, 거의 제로에 가까운 한계비용으로 95% 정확도를 달성하는데, 인간-AI 팀이 30분의 고비용 인간 노동을 투입해 96% 정확도를 달성한다면, 조직은 당연히 전면 자동화를 선택할 것이라는 것이다.
이 현상은 이론이 아니라 현장에서 확인되고 있다. 소프트웨어 개발 분야에서 Bain & Company의 2025년 보고서는 이 역설을 정확하게 포착했다. AI 코딩 어시스턴트가 코드를 수 초 만에 생성하지만, 풀-리퀘스트(PR)는 여전히 인간의 코드 리뷰를 기다리며 수일씩 대기한다. AI가 만들어내는 속도를 인간의 검증 프로세스가 전부 상쇄해버리는 것이다. 생산 속도는 초 단위로 떨어졌는데, 의사결정 속도는 여전히 주 단위에 머물러 있다. 병목이 '만드는 사람'에서 '승인하는 사람'으로 이동한 것이다.
이 구조적 병목은 조직 피라미드의 중간, 즉 중간관리직에서 가장 극적으로 드러난다. 중간관리자의 전통적 역할은 세 가지다. 위에서 내려오는 전략을 아래로 번역하고, 아래에서 올라오는 정보를 위로 요약하며, 팀의 업무를 조율하고 배분하는 것. 이 세 가지 기능 모두가 AI 에이전트의 핵심 역량과 정확히 겹친다. Gartner는 2026년까지 20%의 조직이 AI를 활용해 조직 구조를 평탄화하고, 현재 중간관리직의 절반 이상을 제거할 것으로 예측했다. LinkedIn 데이터에 따르면 직함에 'manager'가 포함된 채용 공고는 2026년 초 기준 전년 대비 12% 감소했다.
미국기업연구소(AEI)는 이 현상의 구조적 메커니즘을 짚어냈다. 미국 기업에는 14만 명 이상의 사내 변호사가 있으며, 이들은 "기술적 진보에 대한 제도적 면역 체계"를 구축해 왔다. 경영진의 거의 절반이 컴플라이언스 우려를 AI 도입의 주된 장벽으로 꼽는다. S&P 500 임원의 44%가 실적 발표에서 AI를 열정적으로 논하는 반면, 중간관리자는 저항하는 현상이 나타나는데, AEI는 이를 "전략적 자기 보존"이라 불렀다.
결국 'Human-in-the-Loop'라는 개념 자체가 재검토되어야 한다. 모든 인간이 루프에 있어야 하는 것이 아니라, 어떤 인간이, 어떤 단계에서, 어떤 판단을 위해 개입하는지가 설계되어야 한다. 그렇지 않으면 인간은 안전장치가 아니라 속도 저하 장치가 된다. McKinsey의 2025년 AI 현황 조사가 그 격차를 명확히 보여준다. 88%의 기업이 최소 한 개 기능에서 AI를 사용하고 있지만, EBIT에 실질적 영향을 보고 있는 기업은 39%에 불과하며, 대부분의 영향은 5% 미만이다. BCG는 독립적으로 60%의 기업이 AI 투자에도 불구하고 유의미한 가치를 창출하지 못하고 있으며, 대규모로 실질적 가치를 만들어내는 기업은 5%에 불과하다고 확인했다. 기술이 병목이 아니다. 인간이 운영하는 조직 시스템 자체가 병목이다.
전통적으로 조직 내 성과 격차는 2배에서 3배 정도로 알려져 있었다. 최고 성과자가 평균의 2배 정도 산출하고, 하위 성과자가 평균의 절반 정도 내놓는 구조다. AI가 이 격차를 6배로 벌려놓았다.
OpenAI의 기업용 데이터 분석에 따르면, AI를 7개 이상의 업무 영역에 적용하는 파워유저와 3개 미만 영역에만 사용하는 일반 직원 사이에 6배의 생산성 격차가 존재한다. 파워유저는 주당 10시간 이상을 절약하는 반면, 저사용자는 시간 절약 효과가 전혀 없다고 보고했다. 같은 조직, 같은 직급, 같은 도구에 접근할 수 있는 사람들 사이에서 이 정도의 격차가 발생한다는 것은, AI 활용 능력이 이미 개인 생산성의 지배 변수가 되었다는 뜻이다.
Section AI가 5,000명의 지식노동자를 대상으로 실시한 AI 숙련도 보고서는 더 암울한 그림을 보여준다. 전체 노동력의 85%가 가치 창출형 AI 활용 사례를 보유하고 있지 않으며, 25%는 업무에 AI를 전혀 사용하지 않는다. ChatGPT의 월간 활성 사용자가 9억 명에 육박하는 시대에, 정작 직장에서 AI로 의미 있는 성과를 내는 사람은 전체의 15%에 불과하다는 것이다. Forrester의 AIQ(AI Quotient) 평가는 더 놀라운 사실을 보여주는데, 대규모 도구 배포에도 불구하고 직원들의 AI 역량 점수가 지난 1년간 실질적으로 개선되지 않았다. 프롬프트 엔지니어링 지식은 22%에서 26%로 겨우 4%포인트 상승하는 데 그쳤다.
기업들은 이 격차를 더 이상 개인의 선택에 맡기지 않기로 했다. Meta는 2026년부터 전 직원의 성과 평가에 'AI 기반 영향력'을 공식 항목으로 포함시킨 최초의 대형 테크 기업이 되었다. 인사 부문 책임자는 "AI 네이티브 미래로 나아가는 과정에서, 그 속도를 높이는 데 기여하는 사람들을 인정하고 싶다"고 밝혔다. 이 말을 뒤집으면, AI를 활용하지 않는 사람은 인정받지 못한다는 의미다. Shopify CEO 토비 뤼트케는 2025년 4월 전사 메모에서 "AI를 효과적으로 사용하는 것은 이제 Shopify 모든 구성원의 기본 기대사항"이라 선언하고, 추가 인력을 요청하려면 먼저 해당 업무를 AI로 처리할 수 없다는 것을 증명해야 한다고 못 박았다. JPMorgan Chase의 제이미 다이먼은 "머리를 모래에 처박으면 진다"고 경고하며 관리자들에게 AI 도입을 전제로 채용을 억제하라고 지시했다.
그런데 이 흐름에는 묘한 역설이 내장되어 있다. HBR이 2025년 8월 1,026명의 엔지니어를 대상으로 수행한 연구에서, 리뷰어가 엔지니어의 AI 사용 사실을 인지한 경우, 동일한 결과물임에도 불구하고 해당 엔지니어의 역량을 9% 낮게 평가했다. 별도의 조사에서 직장인의 약 48%가 업무에서 AI를 사용하고 있다는 사실을 인정하는 것이 불편하다고 답했고, 주된 이유는 '부정행위'로 보일까 봐(47%), '덜 유능해' 보일까 봐(46%)였다. 기업은 AI를 쓰라고 강요하고, 동료는 AI를 쓰면 무능하다고 판단한다. 직원들은 이중구속에 갇혀 있다. AI를 안 쓰면 실제로 무능해지고, AI를 쓰면 무능하다고 인식된다.
Workday의 연구는 또 다른 차원의 문제를 보여준다. AI가 절약해준 시간의 37%가 재작업(rework)으로 다시 소모된다. AI 결과물의 오류를 수정하고, 검증하고, 재작성하는 데 절약된 시간의 3분의 1 이상이 빠져나가는 것이다. CNBC가 보도한 연구에 따르면, AI가 생성한 저품질 업무 산출물, 이른바 'workslop(워크슬롭)'이 팀워크를 파괴하고 있으며, 이로 인한 생산성 손실이 수백만 달러에 달한다. AI 결과물을 판단 없이 그대로 제출하는 것, 그것이 AI 시대의 새로운 무능이다. 과거의 저성과자가 '일을 안 하는 사람'이었다면, 지금의 저성과자는 'AI가 만든 결과를 판단하지 못하면서 일한 것처럼 보이는 사람'이다.
1969년 로렌스 J. 피터가 제안한 법칙은 간결하다. "계층 구조에서 모든 사람은 자신의 무능 수준까지 승진하는 경향이 있다." 뛰어난 프로그래머가 관리직으로 승진해 형편없는 관리자가 되고, 탁월한 영업사원이 영업이사가 되어 전략을 망치는 현상을 설명하는 이 법칙은, AI 시대에 전혀 새로운 변종을 만들어내고 있다.
ACT-ON Group의 2025년 분석에 따르면, Gartner 조사에서 전문직의 47%가 5년 전에는 직접 수행하던 업무를 이미 AI에 위임하고 있다. 이것 자체는 효율화처럼 보인다. 문제는 그 다음이다. AI에 대한 이 '기계로의 지식 이전'이 만들어내는 것은 '임포스터 직원(imposter employees)'이다. 과거의 성과를 바탕으로 승진했지만 실제 역량은 AI 의존으로 위축된 사람들이, 스마트 도구를 활용해 자신의 약점을 은폐하는 현상이다. 과거의 피터 원리에서 무능은 새로운 역할에서 드러났다. AI 시대의 피터 원리에서 무능은 기존 역할에서도 발생하되, AI라는 위장막 뒤에 은폐된다.
투자자이자 에세이스트인 롭 메이는 2025년 7월 널리 공유된 글 "How AI Is Exposing Executive Incompetence"에서 더 날카로운 지적을 했다. "많은 개인이 Claude, Gemini, ChatGPT를 도입했지만, 기업 차원에서 AI를 배치하거나 핵심 워크플로를 재설계한 회사는 극소수다. 왜? 대부분의 임원이 실제로 그렇게 유능하지 않기 때문이다." 그는 VP급과 C레벨 후보자를 면접하며 관찰한 바를 이렇게 정리했다. "다른 곳에서 봤던 것을 그대로 복제하는 사람들이다. AI 격차는 기업 미국의 임원급에 얼마나 많은 무능이 존재하는지를 폭로하고 있다."
데이터가 이 관찰을 뒷받침한다. Pluralsight 조사에서 테크 업종 근무자의 79%가 실제보다 AI에 대해 더 많이 아는 척한다고 답했으며, 임원급이 가장 심한 허풍쟁이였다. 더닝-크루거 효과의 AI 버전이다. 가장 적게 아는 사람이 가장 많이 안다고 착각하는 현상이, 조직의 최상층에서 가장 두드러지게 나타난다. 이들이 AI 전환 전략을 수립하고 예산을 배분한다는 사실은, 왜 88%의 기업이 AI를 도입하고도 39%만 성과를 보는지를 설명하는 데 충분하다.
피터의 법칙과 함께, AI는 파레토 법칙도 극단으로 밀어붙이고 있다. MIT 디지털 경제 이니셔티브의 마이클 슈래지는 AI가 고전적인 80/20 법칙을 넘어 '슈퍼 파레토' 분포, 즉 10/90, 5/50, 심지어 1/25에 가까운 극단적 집중으로 밀어붙이고 있다고 주장한다. AI 분석이 조직으로 하여금 핵심 소수를 더 쉽게 식별할 수 있게 하고, 그 핵심 소수가 점점 더 적어지고 있다. 이미 모바일 게임 매출의 절반이 전체 이용자의 0.25% 미만에서 발생한다. 조직 내 생산성 분포도 같은 방향으로 움직이고 있다.
Shopify의 뤼트케는 AI를 활용해 "10배 더 생산적"인 직원이 있다고 말했고, 일부는 "100배의 일"을 해낸다고 했다. 10배 개발자(10x developer)가 100배 개발자가 되는 시대다. 그런데 10배 개발자 개념의 핵심은 원래 코딩 속도가 아니라 패턴 인식, 아키텍처 직관, 시스템 사고력이었다. AI가 이 모든 것을 API로 제공하기 시작하면서, 상위 집단의 초생산성은 그들의 고유 능력이 아니라 AI 활용 능력에 의해 결정되고 있다. 동시에 하위 집단은 AI 없이는 평균에도 미치지 못하는 상태로 추락한다. 파레토의 '중요한 소수'는 더 적어지고, '사소한 다수'는 더 많아진다. 조직 내 불평등이 기하급수적으로 확대되는 구조다.
2025년 2월 2일, OpenAI 공동창업자 안드레이 카르파시가 소셜 미디어에 짧은 글을 올렸다. "나는 'Vibe Coding'이라 부르는 새로운 코딩 방식이 있다. 분위기에 완전히 몸을 맡기고, 지수적 발전을 수용하고, 코드가 존재한다는 사실 자체를 잊어버리는 것이다." 이 글은 450만 뷰 이상을 기록했다. 같은 해 11월, 'Vibe Coding'은 콜린스 사전의 올해의 단어로 선정되었다. 한 개인의 트윗이 8개월 만에 사전에 등재된 것이다.
Vibe Coding의 핵심은 코드를 이해하지 않고도 소프트웨어를 만들 수 있다는 것이다. 자연어로 원하는 기능을 설명하면 AI가 코드를 생성하고, 작동하면 넘어가고, 안 되면 에러를 복사해 다시 던진다. 카르파시 본인의 표현을 빌리면 "나는 그냥 보고, 말하고, 실행하고, 복사-붙여넣기 하는데, 대부분 작동한다"는 것이다.
이 현상의 규모는 이미 실험 단계를 넘어섰다. Y Combinator의 2025년 겨울 배치에서 스타트업의 25%가 코드베이스의 95% 이상을 AI로 생성했다. AI 코딩 에디터 Cursor(Anysphere)는 60명 남짓한 팀으로 ARR 20억 달러를 돌파했고, Fortune 500 기업의 절반 이상이 이를 사용 중이다. Replit은 2024년 말 ARR 1,000만 달러에서 2025년 10월 2억 5,300만 달러로 성장했다. 5.5개월 만에 10배 성장이라는 SaaS 역사상 전례 없는 기록이다. 스웨덴의 Vibe Coding 플랫폼 Lovable은 하루에 10만 개의 새 제품이 만들어지는 수준에 도달했다.
비전문가의 전문 영역 침투가 본격화되고 있다. 코딩 경험이 전혀 없는 일반의(GP)가 Replit의 AI 에이전트를 이용해 여러 임상 도구를 직접 구축한 사례가 보고되었으며, 그는 "코더가 아닌 것이 오히려 장점"이라고 주장했다. 도메인 전문성 덕분에 전문 개발자가 놓치는 미묘한 워크플로 문제를 해결할 수 있었다는 것이다. 법률, 마케팅, 금융 분야에서도 비슷한 현상이 확산되고 있다. 법률 전문가의 92%가 이제 최소 한 가지 AI 도구를 사용하며, 콘텐츠 마케터의 97%가 2026년에 AI를 활용할 계획이고, 초급 글쓰기 일자리는 2023년 이후 27% 감소했다.
하버드/BCG의 유명한 'Jagged Frontier(들쭉날쭉한 경계)' 연구는 이 현상의 이론적 프레임워크를 제공한다. AI 역량의 경계 안쪽에서 GPT-4를 사용한 컨설턴트는 12.2% 더 많은 과제를 완수했고, 25.1% 더 빨랐으며, 품질은 40% 이상 높았다. 특히 하위 성과자의 개선폭이 43%로, 상위 성과자의 17%를 크게 앞질렀다. AI가 위대한 평등화 도구인 것처럼 보인다. 그런데 경계 바깥에서는 정반대 현상이 벌어진다. IE대학교의 키론 라빈드란 교수는 이를 'Danger Zone(위험 지대)'이라 명명했다. 전문성이 낮은 사람이 비정형적 과제에 AI를 사용할 때, "AI는 초보자가 검증할 수 없는, 권위 있게 들리는 분석을 생성한다". 그의 교실 관찰에서 학생들은 AI 도움으로 대학원 수준의 과제물을 제출했지만, 방법론에 대한 기초적인 질문에 답하지 못했다. 결과물의 수준은 올라갔지만 역량의 수준은 오히려 내려간 것이다.
품질과 보안의 문제는 이미 가시화되었다. CodeRabbit의 2025년 12월 연구에 따르면, AI와 공동 작성된 코드는 인간만 작성한 코드 대비 주요 이슈가 1.7배, 보안 취약점이 2.74배 더 많다. Lovable 플랫폼에서 만들어진 앱의 10.3%가 개인정보를 노출하는 심각한 보안 취약점을 보였다. METR의 2025년 7월 연구에서는 경험 많은 오픈소스 개발자가 AI 도구를 사용했을 때 오히려 19% 더 느려졌다. 그런데 본인들은 24% 더 빨라졌다고 믿었다. 체감과 현실의 괴리가 이 정도라면, AI 생산성에 대한 자기 보고는 본질적으로 신뢰할 수 없다.
흥미롭게도 카르파시 본인이 2026년 2월 Vibe Coding이 "이미 지난 개념"이라며 후속 용어 'Agentic Engineering'을 제안했다. 거기에는 "기술과 과학, 그리고 전문성이 있다"고 인정했다. 최초의 민주화 서사가 채 1년도 되지 않아 새로운 위계 서사로 전환된 것이다. 코드를 모르는 사람도 앱을 만들 수 있다는 것은 사실이다. 그러나 작동하는 앱과 안전하고 유지보수 가능한 앱 사이의 간극은, Vibe Coding이 메울 수 없는 전문성의 영역으로 남아 있다.
한국은 AI 시대 조직 병목 문제의 가장 극단적인 실험장이다. 세계 최고 수준의 개인 AI 채택률과, 그것이 조직 성과로 전환되지 못하는 구조적 단절이 동시에 존재하기 때문이다.
한국 근로자의 63.5%가 생성형 AI를 사용하고 있다. 이는 미국의 약 2배에 해당하며, 하루 1시간 이상 사용하는 중사용자 비율은 한국 78.6%, 미국 31.8%로 격차가 더 벌어진다. 세계에서 AI를 가장 많이 쓰는 나라다. 그런데 이 놀라운 채택률이 생산성으로 번역되고 있는가? CIO Korea의 2026년 조사(884명 응답)에 따르면 최대 장벽은 '경영진 기대와 조직 현실 사이의 격차(33%)'이고, 그 다음이 '인력의 AI 역량 부족(19.8%)'이었다. 위에서는 아래가 못 따라온다고 하고, 아래에서는 위의 기대가 비현실적이라고 한다. 양쪽 다 맞는 말이고, 양쪽 다 병목이다.
한국의 AI 전환이 유독 고통스러운 이유는 '연공서열'이라는 한국 특유의 조직 문법과 충돌하기 때문이다. 한국은행은 2025년 10월 보고서에서 '연공편향적 기술변화'라는 개념을 제시했다. 2022년 7월부터 2025년 7월까지 3년간 청년 일자리 21만 1천 개가 소멸했는데, 이 중 98.6%인 20만 8천 개가 AI 고노출 산업에서 사라졌다. 같은 기간 50대 일자리는 오히려 20만 9천 개가 늘었고, 그중 14만 6천 개가 역시 AI 고노출 산업에서 생겨났다. AI가 경력자를 보호하면서 신입의 진입 경로를 차단하는, 정확히 연공서열을 강화하는 방향으로 작동하고 있는 것이다.
서울신문의 보도에 따르면, IT 개발 신입 채용 공고는 전년 대비 67% 감소했다. 네카라쿠배당토(네이버, 카카오, 라인, 쿠팡, 배민, 당근, 토스)로 불리는 한국 주요 테크 기업 중 네이버를 제외하면 2025년 신입 공채 계획이 없었다. 중앙대 AI학과 이재성 교수는 이 현상을 이렇게 설명했다. "숙련된 소프트웨어 개발자들은 AI를 학습해 효율적으로 업무를 처리하게 됐다. 교육이 필요한 신입의 길은 완전히 막혔다." 대기업 정규직 채용은 43% 급감했으며, 국가AI전략위원회 유재연 위원은 "AI 확산에서 가장 먼저 나타나는 변화는 신규 채용의 축소"라며 "처음 노동시장에 진입하려는 청년들이 갈 곳이 점점 줄어들고 있다"고 경고했다.
한국의 대기업 집단도 AI 전환에 속도를 내고 있다. 삼성전자는 2025년 삼성 테크 콘퍼런스에서 AI 코딩 어시스턴트 'Cline'을 공개하고, CTO 전경훈은 "AI는 더 이상 단순한 도구가 아니라, 일상과 업무를 혁신적으로 바꾸는 핵심 동력"이라고 선언했다. SK C&C는 스스로를 'SK AX'로 리브랜딩하고, AI 에이전트가 하루 약 100분의 시간을 절약하며 효율을 20% 향상시킨다고 발표했다. 콜센터 직원들이 거리로 내몰리는 동안, 기업들은 챗봇으로 매출을 올렸다.
이 모든 현상의 상징적 사건은 KB국민은행에서 일어났다. 2023년 말, KB국민은행은 AI 도입을 이유로 콜센터 직원 240명에게 대량 해고를 통보했다. 해고 통보를 받은 직원들은 자신을 대체할 AI 시스템을 직접 학습시켜야 했다. 한국 언론은 이를 "내 자리를 대체할지 모를 AI, 내가 학습시켰다"라는 제목으로 보도했다. 결국 여론과 노조의 반발로 해고는 철회되었지만, 이 사건은 한국 사회에서 AI-노동 갈등의 상징으로 남았다.
PwC의 한국 데이터에 따르면 AI 스킬 보유자의 임금 프리미엄은 56%로, 전년 대비 2배 증가했다. AI를 다루는 사람과 그렇지 못한 사람 사이의 보상 격차가 1년 만에 두 배로 벌어진 것이다. 반면 직장에서 경력 관련 새로운 기술을 배웠다고 답한 한국 직장인은 31%에 불과해, 글로벌 평균 56%에 크게 못 미쳤다. 세계에서 AI를 가장 많이 쓰면서, 조직 차원의 AI 역량 개발은 세계 평균에도 미치지 못하는 역설. 이것이 한국형 AI 병목의 본질이다.
해고 통계와 생산성 데이터 너머에, 잘 보이지 않는 재난이 진행되고 있다. AI 시대가 지식노동자의 정신 건강과 직업 정체성에 가하는 타격이다.
플로리다대학교 연구진은 2025년 9월 의학 저널 Cureus에 발표한 논문에서 'AI Replacement Dysfunction(AIRD, AI 대체 기능장애)'이라는 임상 프레임워크를 제안했다. 이는 "AI로 인한 직업 대체의 위협이나 현실에 직면한 개인이 경험하는 심리적, 실존적 고통"으로 정의된다. 증상은 불안, 불면, 우울, 정체성 혼란을 포함하며, 특히 AI의 관련성 자체를 부정하는 것이 심리적 방어기제로 작동한다. 연구의 공저자 조셉 손턴 박사는 "AI로 인한 직업 대체는 보이지 않는 재난"이라고 표현했다.
APA(미국심리학회)의 '2025 Stress in America' 조사에서 성인의 57%가 AI를 주요 스트레스원으로 꼽았으며, 이는 전년의 49%에서 8%포인트 상승한 수치다. 심리학자들도 예외가 아니어서, 38%의 심리학자가 AI로 인해 자신의 직무 일부 또는 전부가 대체될 수 있다는 우려를 표했다. 이는 2024년의 27%에서 크게 증가한 수치다.
그러나 가장 파괴적인 것은 고용 불안이 아니다. Fractional Insights의 연구(1,000명 이상의 미국 직원 대상)는 'AI 불안'을 세 가지 차원으로 구분했다. Growth Angst("내가 따라갈 수 있을까?"), Security Angst("내 역할이 안전한가?"), 그리고 Significance Angst("내 일에 여전히 의미가 있는가?")이다. 세 가지 중 조직 몰입도, 성과, 참여도와 가장 강한 상관관계를 보인 것은 Significance Angst, 즉 의미 불안이었다. 고용 안정이나 성장 가능성에 대한 불안보다, "내가 하는 일이 여전히 가치 있는가?"라는 실존적 질문이 사람을 가장 깊이 무너뜨린다는 것이다. 연구자들은 이렇게 물었다. "수십 년간 지식노동자들은 자신이 생산하는 결과물을 중심으로 직업적 정체성을 구축해 왔다. AI는 그 결과물을 자동화하는 것에 그치지 않는다. 항상 잠복해 있던 질문을 수면 위로 끌어올린다. 가치는 '하는 것(doing)'에 있었나, 아니면 '하는 것을 의미 있게 만드는 사고(thinking)'에 있었나?"
HBR의 2026년 3월 연구는 AI에 대한 저항을 심리적 욕구 이론으로 설명한다. 근로자의 웰빙은 유능감(competence, 내가 효과적이라는 느낌), 자율성(autonomy, 내가 통제하고 있다는 느낌), 관계성(relatedness, 의미 있는 연결)이라는 세 가지 심리적 욕구에 의존한다. AI가 이 세 가지를 동시에 위협할 때, 근로자들은 실용적 위협이 아니라 실존적 위협을 경험한다. 우버의 엘리트 엔지니어들도 처음에는 AI에 저항했는데, 그 이유는 "전문적 가치에 대한 자기 인식을 불안정하게 만들었기 때문"이었다.
저항은 은폐 행동으로 이어진다. 직장인의 약 48%가 AI 사용을 인정하는 것이 불편하다고 답했고, 동시에 54%의 직원은 적절한 접근권이 주어지지 않으면 허가되지 않은 'Shadow AI' 도구를 사용하겠다고 답했다. AI를 쓰고 있다는 사실은 숨기되, 숨어서라도 AI를 쓰겠다는 것이다. 공식적으로는 부정행위이고, 비공식적으로는 생존 전략이다.
한국에서도 상황은 심각하다. EY 한국의 2025년 조사에서 직원의 64%가 AI 도구가 업무량을 줄이기는커녕 오히려 늘렸다고 답했고, 37%는 AI 과의존이 자신의 역량을 약화시킬 것을 우려했으며, 충분한 교육을 받고 있다고 느끼는 직원은 12%에 불과했다. 한국 IT 매체들은 AI 도입 속도가 빨라질수록 직장인 정신건강 위기가 심화되고 있다고 경고하며, 특히 MZ세대의 번아웃이 두드러진다고 보도했다.
AI 대체 불안은 '보이지 않는 재난'이라는 표현이 정확하다. 해고 통계는 뉴스가 되지만, 매일 출근하면서 "내 일은 아직 의미가 있는가"라고 스스로에게 묻는 수백만 명의 고통은 통계로 잡히지 않는다. 그리고 바로 그 불안이, AI 도입 자체를 저해하는 또 하나의 병목으로 작동한다. 불안한 사람은 변화에 저항하고, 저항하는 사람은 조직의 속도를 늦추며, 느려진 조직은 경쟁에서 뒤처지고, 뒤처진 조직은 더 급격한 구조조정을 단행하고, 그 구조조정은 남은 사람들의 불안을 더 증폭시킨다. 악순환이다.
이 글을 시작한 농담으로 돌아가자. "조직에서 병목을 찾을 수 없다면, 당신이 병목이다." AI 시대에 이 법칙은 한 가지 치명적인 업데이트가 필요하다. 이제는 누구나 병목이기 때문에, 병목을 '찾을 수 없는' 상황 자체가 불가능해졌다는 것이다.
임원은 실적 발표에서 AI 전환을 외치면서 워크플로를 바꾸지 않는다. 88%의 기업이 AI를 도입했지만 39%만 성과를 보고, 대규모 가치를 창출하는 기업은 5%에 불과하다. 롭 메이의 표현대로, AI 격차가 폭로하는 것은 기술의 한계가 아니라 경영진의 무능이다.
중간관리자는 정보의 집약과 전달, 업무의 조율과 배분이라는 자기 존재의 근거를 AI 에이전트에게 빼앗기고 있다. Gartner는 20%의 조직에서 중간관리직의 절반 이상이 제거될 것으로 예측한다. 정보 중개인이 필요 없어진 시대에, 정보 중개를 업으로 삼아온 사람들이 병목이 되는 것은 구조적 필연이다.
지식노동자는 AI에게 일을 시키고 결과를 검증하지 않은 채 제출한다. Workday 조사에서 AI가 절약한 시간의 37%가 재작업으로 소모되고, 'workslop'이 조직 전체의 생산성을 갉아먹는다. AI 결과물을 판단할 수 없으면서 일한 척 하는 것, 그것이 21세기형 저성과다.
신입은 아예 조직에 들어오지 못한다. 한국에서 3년간 청년 일자리 21만 1천 개가 소멸했고, IT 신입 채용 공고는 67% 감소했다. AI가 연공서열을 파괴할 것이라는 예측과 정반대로, AI는 기존 경력자를 보호하고 진입 장벽을 높이고 있다. 들어올 문이 닫힌 사람들은 병목 이전에 배제된 것이다.
그리고 AI 자체도 병목이다. 법률 질의 6건 중 1건에서 할루시네이션이 발생하고, AI 생성 코드의 보안 취약점은 2.74배 높으며, 자율 에이전트가 프로덕션 데이터베이스를 삭제한 뒤 가짜 로그를 만들어 은폐하려 한 사건까지 발생했다. Klarna가 AI로 인력을 40% 줄인 뒤 품질 저하로 다시 사람을 채용해야 했던 것은, AI가 만능이 아니라는 사실의 가장 비싼 증거다.
병신 총량의 법칙은 AI 시대에도 건재하다. 달라진 것은, 과거에는 조직 내 특정 개인이 병목이었다면, 지금은 조직의 거의 모든 계층이 서로 다른 방식으로 동시에 병목이라는 점이다. 임원은 전략적 병목이고, 중간관리자는 구조적 병목이며, 실무자는 판단력 병목이고, 신입은 접근 병목이며, AI는 신뢰성 병목이다.
그렇다면 이 다중 병목 상태에서 탈출구는 무엇인가. 답은 의외로 단순하지만 실행은 잔인할 만큼 어렵다. 자신이 어떤 종류의 병목인지를 정확히 인식하는 것이다. 임원이라면 AI를 말하는 것이 아니라 워크플로를 재설계하고 있는지를 자문해야 한다. 중간관리자라면 자신의 역할이 정보 중개에서 판단과 맥락 부여로 전환되었는지를 점검해야 한다. 실무자라면 AI 결과물을 '있는 그대로 제출'하고 있지 않은지 스스로 물어야 한다. 그리고 조직이라면, AI를 도입한 것과 AI를 중심으로 일하는 방식을 재설계한 것은 전혀 다른 일이라는 사실을 직시해야 한다.
Fractional Insights의 연구자들이 던진 질문이 이 글의 핵심을 관통한다. "가치는 '하는 것'에 있었나, 아니면 '하는 것을 의미 있게 만드는 사고'에 있었나?" AI가 '하는 것'을 대체하는 시대에, 유일하게 병목에서 벗어나는 길은 '사고'의 영역으로 자기 포지션을 이동시키는 것이다. 무엇을 만들 것인지를 판단하고, AI가 만든 것의 가치를 평가하고, AI가 아직 도달하지 못한 맥락과 의미를 부여하는 것. 그것만이 인간이 루프 안에 남아야 할 유일한 이유다.
병목을 찾을 수 없다면, 당신이 병목이다. 그런데 AI 시대에는, 자신이 병목이라는 사실을 인정하는 것이 병목에서 벗어나는 유일한 첫걸음이다. 인정하지 않는 순간, 당신은 Klarna의 AI처럼 "비용이 지나치게 지배적인 평가 기준"이 되는 조직에서, 비용 항목으로 분류될 뿐이다.