AI Doesn't Reduce Work—It Intensifies It
지난 2월, UC 버클리의 연구자 Aruna Ranganathan과 Xingqi Maggie Ye가 HBR에 논문 하나를 발표했다. 제목은 단호하다. "AI Doesn't Reduce Work—It Intensifies It."
연구팀은 약 200명 규모의 미국 테크 기업을 8개월간 밀착 관찰했다. 사내 AI 도구 구독을 제공했지만 사용을 강제하지는 않았다. 결과는 예상과 달랐다. AI를 도입한 직원들은 더 적게 일하지 않았다. 더 빠르게, 더 넓은 범위를, 더 긴 시간 동안 일했다. 자발적으로.
이 발견이 흥미로운 이유는 그것이 반직관적이기 때문이 아니다. 우리 대부분이 이미 이것을 몸으로 알고 있기 때문이다. 문제는 왜 그런가다.
슬랙이 나왔을 때도, 스마트폰이 나왔을 때도 비슷한 이야기가 있었다. 경계가 흐려지고, 일이 늘고, 번아웃이 온다고. 그렇다면 AI도 그냥 같은 이야기의 반복인가.
아니다. 결정적인 차이가 하나 있다.
이전 도구들은 내가 할 수 있는 일의 속도를 높였다. AI는 내가 할 수 있는 일의 범위를 바꾼다. 이메일은 내가 모르는 것을 알게 해주지 않는다. 슬랙은 내가 못하는 것을 할 수 있게 해주지 않는다. AI는 내가 모르는 영역에 "일단 시작"할 수 있게 해준다.
코드를 몰라도 일단 짜본다. 법률 문서를 몰라도 일단 초안을 낸다. 재무 모델을 다뤄본 적 없어도 일단 구조를 잡는다. 이 "일단 시작"이 가능해지는 순간, 일의 범위에 대한 심리적 경계가 사라진다.
이것을 진입 마찰(entry friction)의 제거라고 부를 수 있다. 인간은 모르는 것 앞에서 멈춘다. 빈 페이지, 낯선 도구, 처음 보는 코드베이스. 이 멈춤이 자연스러운 업무 경계를 만들어왔다. AI는 이 멈춤을 제거한다. 그리고 멈춤이 없어진 자리에는 더 많은 시작이 들어온다.
더 중요한 것은 두 번째 특성이다. AI는 내가 시도한 것에 즉각 반응하면서 다음 시도를 유발한다. 프롬프트를 던지면 결과물이 나온다. 그 결과물은 "조금만 더 다듬으면 완성"이라는 느낌을 계속 만들어낸다. 이 즉각적 피드백 루프는 끊기가 어렵다.
이메일 알림은 무시할 수 있다. 내가 방금 던진 프롬프트의 결과물은 무시하기 어렵다. 그것은 외부에서 오는 자극이 아니라, 내가 시작한 무언가의 연속이기 때문이다. 심리학적으로 말하면, 완성되지 않은 과제는 완성된 과제보다 기억에 더 오래 남고 더 강하게 주의를 끈다. AI는 항상 미완성 과제를 눈앞에 두는 상태를 만든다.
연구팀이 "conversational style of prompting"이라고 부른 것도 같은 맥락이다. 채팅처럼 느껴지기 때문에 일처럼 느껴지지 않는다. 점심 시간에 프롬프트를 날리고, 파일이 로딩되는 틈에 AI에게 다음 작업을 맡기는 것이 쉬는 것처럼 느껴진다. 그러나 뇌는 쉬고 있지 않다. 인지적으로는 계속 일하는 상태다.
AI가 업무 범위를 확장시킨다면, 그 확장의 혜택과 비용은 조직 안에서 어떻게 분배되는가.
연구에서 포착된 패턴을 따라가면 이렇다. 프로덕트 매니저가 AI를 통해 코드를 짜기 시작했다. 리서처가 엔지니어링 태스크를 맡았다. 개인들이 이전에는 위임하거나 미뤘을 일들을 직접 시도했다. AI가 이 시도를 가능하게 했고, 그 과정이 종종 내적으로 보람 있게 느껴졌다.
그런데 이 확장의 이면에서 무슨 일이 일어났는가. 엔지니어들은 동료의 AI 보조 코드를 검토하는 시간이 늘었다. 미완성 pull request를 마무리했다. 비공식적으로, 슬랙 스레드에서, 데스크 사이드 대화로. 이 부담은 공식 업무로 잡히지 않았다.
구조를 단순화하면 이렇다. AI 덕분에 범위를 넓힌 사람은 자신의 확장을 생산적 경험으로 느낀다. 그 확장의 결과물을 검증해야 하는 specialist는 본래 업무에 더해 추가 부담을 진다. generalist의 부상이 specialist의 부담 증가로 이어지는 구조다.
이것이 AI 업무 강화의 분배적 차원이다. 강화가 일어나되, 균등하게 일어나지 않는다.
업무 확장이 일어날 때, 그 결과물에 대한 검증도 함께 늘어난다. 그런데 검증의 성격이 이전과 다르다.
과거의 검토는 내용적 판단이었다. 코드 리뷰는 코드가 맞는지 보는 것이었다. 문서 검토는 내용이 정확한지 보는 것이었다. 이 검토에는 해당 도메인의 전문 지식이 필요했고, 전문가는 그 지식을 이미 갖고 있었다.
지금은 다르다. AI가 생성한 코드를 검토할 때, 그 코드가 기능적으로 작동하는지 여부만이 아니라 AI가 어떤 경로로 이 코드를 생성했는지, 어디서 환각이 발생했을 가능성이 있는지, 어떤 엣지 케이스를 놓쳤는지를 판단해야 한다. 이것은 도메인 전문성과 다른 종류의 지식이다. AI 시스템의 작동 방식, 오류 패턴, 한계에 대한 메타 지식이다.
그리고 이 메타 지식은 현재 어디에도 체계적으로 존재하지 않는다. 아직 축적 중이고, 도구가 바뀔 때마다 다시 써야 한다. 도메인 전문가도 모르고, AI 엔지니어도 특정 도메인 맥락에서의 오류 패턴을 다 알지 못한다.
결과적으로 검증 비용이 높아진다. AI가 생산성을 높인다는 전제는 암묵적으로 "출력 검증 비용이 생산 비용보다 낮다"는 가정을 깔고 있다. 그런데 이 가정이 성립하지 않는 경우가 점점 늘어난다. 특히 오류의 결과가 큰 영역일수록. 의료, 법률, 금융, 안전이 관련된 도메인에서는 더욱 그렇다.
이 검증 비용은 어디로 가는가. 보이지 않는 방식으로 기존 전문가들에게 전가된다. 공식 업무로 잡히지 않은 채, 시간과 에너지로 소모된다.
이 모든 것이 하나의 사이클로 연결된다.
AI가 속도를 올리면 기대치가 올라간다. 높아진 기대치는 AI 의존도를 높인다. 의존도가 높아지면 업무 범위가 넓어진다. 넓어진 범위는 검증 부담을 늘린다. 검증 부담을 안고서도 속도를 유지하려면 다시 AI에 더 의존한다.
이 사이클은 처음에는 생산성 상승처럼 보인다. 실제로 단기적으로는 그렇다. 그런데 시간이 지나면서 누적되는 것이 있다. 인지 피로, 검증되지 않은 결과물의 축적, 그리고 무엇보다 "더 많이 하는 것"이 새로운 기준선이 되는 기대치의 상향.
연구에서 한 엔지니어가 이렇게 말했다. "AI로 더 생산적이 되면 시간이 좀 남겠지, 일을 덜 하게 되겠지 했는데. 실제로는 일을 덜 하지 않았다. 같은 양을 하거나 오히려 더 했다."
이것이 역설이다. 효율이 높아졌는데 여유가 생기지 않는다. 효율이 높아진 만큼 기대치와 업무 범위가 함께 늘어나기 때문이다.
여기서 흔한 반응은 이렇다. "지금은 과도기니까 혼란스러운 거다. 표준화되면 나아질 것이다."
이 말은 안정기가 온다는 전제를 깔고 있다. 그런데 AI 도구는 표준화되기 전에 이미 다음 버전이 나온다. 지금의 혼돈이 일시적 상태가 아니라 구조적 상태일 수 있다.
AI 기술의 발전 속도와 사람의 적응 속도가 맞지 않는다. AI는 몇 달 단위로 바뀌는데, 사람이 새로운 도구와 워크플로우에 적응하는 데는 통상 몇 년이 걸린다. 그 gap이 좁혀지기 전에 다음 버전이 나온다. 적응은 구조적으로 항상 뒤처진다. 그렇다면 "표준화 이후의 안정"은 업무 강도가 낮아지는 안정이 아니라, 높아진 강도가 새로운 노멀로 고착되는 안정일 가능성이 높다.
AI 도입을 둘러싼 담론의 대부분은 이 질문을 중심으로 돈다. "어떻게 AI를 더 잘 활용할 것인가." "어떻게 AI 도입을 잘 관리할 것인가."
이것은 중요한 질문이다. 그러나 충분한 질문이 아닐 수 있다.
개인이 AI로 더 많은 범위를 커버하고, 조직의 headcount 증가 없이 업무량이 늘어나고, 검증 비용이 보이지 않는 방식으로 전문가들에게 전가되는 구조. 이것은 기존의 노동 교환 모델이 이미 작동하지 않기 시작했다는 신호다.
AI 관리 방법론을 정교화하는 것은, 빠르게 달리는 차 안에서 시트벨트를 매는 일에 가깝다. 안 하는 것보다 낫다. 그러나 차가 어디로 가고 있는지에 대한 질문을 대체하지는 않는다.
조직과 개인 모두에게 더 정확한 질문은 이것일 수 있다. AI가 노동의 성격과 가치를 구조적으로 재편하는 속도에 비해, 우리는 무엇을 준비하고 있는가.
참고: Aruna Ranganathan & Xingqi Maggie Ye, "AI Doesn't Reduce Work—It Intensifies It," Harvard Business Review, February 2026.