가짜노동의 종말 AI 시대의 ‘진짜 노동’2

by Ehecatl

앞선 글에서 나는 AI가 가짜노동을 드러낸다고 말했다.
그리고 남는 역할은 ‘판단’과 ‘책임’이라고 정리했다.
한국에서는 해고가 쉽지 않고 분쟁 비용이 크니, 시간을 압축하는 쪽(임금은 유지하고 근로시간을 줄이며 성과는 유지하는 방식)이 경영적으로도 합리적일 수 있다고도 주장했다.

그런데 글을 공개하고 나니 더 날카로운 질문이 따라왔다.
그 질문들은 단순한 비판이 아니라, 내가 주장한 설계를 “정말 운영 가능한가”로 검증하는 질문이었다.
그래서 이번 글은 반박을 방어하는 글이 아니라, 내 주장에 운영 가능한 형태를 추가하는 글이다.

아래에서는 각 항목마다 이렇게 정리한다.

내가 앞서 한 말이 무엇이었는지

그 말이 왜 현실에서 문제가 되는지

그 문제를 피하지 않고 어떻게 설계로 보완하는지


“판단과 책임”만으로는 80%를 설명할 수 없다는 문제


내가 앞서 한 말

AI가 반복 업무를 가져가면, 사람의 역할은 ‘판단·예외·책임’으로 이동한다고 말했다.
이건 “모두를 전략가로 만들자”가 아니라, 책임선을 다시 설계하자는 의미라고도 덧붙였다.


왜 문제가 되는가

여기서 현실의 벽이 나온다. 조직은 본질적으로 피라미드 구조다.
판단과 책임이 늘어난다고 해도, 그 자리는 모두가 들어갈 만큼 넓지 않다.
반복 업무가 줄어들 때 가장 먼저 생기는 것은 “판단할 일의 폭증”이 아니라, 남는 시간이다.

그리고 그 남는 시간에 대해 조직이 아무 것도 설계하지 않으면, 두 가지 중 하나가 생긴다.

단기적으로는 “그래도 자를 수 없으니 시간을 줄여보자”로 갈 수 있다.

그러나 장기적으로는 “할 일이 줄어든 고임금 인력”이 쌓인다.

이때 근로시간 단축은 혁신이 아니라 우아한 실업이 된다.
즉, 반박이 던진 핵심 질문은 이것이다.
“그래서 그 많은 사람들을 구체적으로 어디에 쓰겠느냐.”


이번 보완은 무엇인가

그래서 나는 ‘판단과 책임’이라는 문장을 보완한다.
AI 시대의 진짜 설계는 “남는 사람을 관리하는 법”이 아니라 남는 시간을 배치하는 법이다.
남는 시간을 그냥 두면 다시 가짜노동이 자라난다.
따라서 ‘목적지’를 만들어야 한다.

나는 목적지를 세 갈래로 제시한다. 이건 “좋은 말”이 아니라, 실제로 일을 만들 수 있는 영역이다.


회사 내부 정리(자료 정리)
많은 회사의 문서와 데이터는 ‘결정을 위한 기록’이 아니라 ‘결정한 척하기 위한 흔적’이다.
보고용 PPT, 보여주기식 품의, 부서마다 다른 기준으로 작성된 예산표, 의미 없이 길어진 규정이 쌓여 있다.
이 상태에서 AI를 도입하면, AI는 무엇을 학습할까.
‘좋은 의사결정 방식’이 아니라 과거의 비효율을 학습한다.

그래서 AI 시대의 첫 번째 집단적 노동은 보고서를 더 쓰는 게 아니라, 문서를 치우고 기준을 통일하는 작업이 된다.
낡은 양식을 폐기하고, 중복을 없애고, 데이터 정의를 맞추고, “이 문서는 무엇을 결정하기 위한 문서인가”가 남도록 구조를 바꾼다.
이건 대규모 인력이 투입될 수 있고, AI 품질을 결정하는 기반 공사다.


법적·윤리적 안전 운영(사건이 터지기 전 시스템 점검)
한국에서 사건은 비용이 아니라 ‘폭발’이다.
중대재해, 괴롭힘, 개인정보, 감사 지적은 한 번 터지면 조직 전체를 흔든다.
AI는 초안을 만들고 체크리스트를 만들 수 있지만, 사건을 예방하는 것은 결국 시스템 운영이다.
프로세스가 실제로 돌아가는지 점검하고, 책임선이 작동하는지 확인하고, 누락을 막는 일이다.

이 영역은 “관리직의 책임”이 구호로 끝나지 않고, 실제 업무로 변환되는 영역이다.
즉, 남는 시간을 여기에 투자하면 ‘우아한 실업’이 아니라 ‘보험료를 선납하는 노동’이 된다.


미래 먹거리 작업(신사업·제품 개선·자동화 실험)
정체 위험을 피하는 유일한 길은 여기에 있다.
다만 “혁신해라”라는 말은 다시 가짜노동을 만든다.
그래서 미래 먹거리도 과제로 만들어야 한다.

예를 들면 이런 식이다.
고객 인터뷰를 몇 건 수행하고, 그 결과로 제품 개선 과제 몇 개를 실제로 배포하고, 자동화 실험을 PoC라도 끝까지 완주하는 식이다.
핵심은 “의욕”이 아니라 “실행 가능한 정의”다.

결론적으로, 100-80-100은 복지가 아니라 남는 시간을 세 갈래 목적지로 강제 재배치하는 운영체제가 되어야 한다.


“기준선 고정”이 정체를 부른다는 문제


내가 앞서 한 말

성과 기준선을 고정해야 ‘목표 상향’이 제도 자체를 망치지 않는다고 했다.
즉, 줄어든 시간 안에 더 높은 압박을 주는 상황을 막아야 한다고 했다.


왜 문제가 되는가

반박이 맞는 부분이 있다.
시장은 변하고 경쟁사는 AI로 속도를 올린다.
우리만 과거 기준선에 묶이면 회사는 경쟁력을 잃을 수 있다.

문제는 “기준선을 고정하자”라는 문장이 경영진에게 이렇게 들릴 수 있다는 점이다.
“AI 효율의 이익을 회사가 못 가져가고, 노동자만 가져간다.”

이 인식이 생기면 제도는 지속될 수 없다.


이번 보완은 무엇인가

그래서 문장을 바꾼다.


고정해야 할 것은 성과가 아니라, 성과를 올리는 방식의 규칙이다.

성과 기준은 올릴 수 있다.
다만 수시로, 임의로, 계속 올리는 방식은 금지한다.
기준을 올리는 순간을 분기/반기 같은 주기로 고정하고, 올릴 때의 배분 원칙을 함께 둔다.

예를 들어 이렇게 설계한다.

AI로 생산성이 늘어나면

일부는 근로시간 단축 유지로 돌리고

일부는 미래 먹거리 과제에 강제 투입하고

일부는 회사 성과로 환원한다

이렇게 하면 회사는 “정체”를 피하고, 구성원은 “무한 증량”을 피한다.
즉, 고정하는 것은 숫자가 아니라 게임의 규칙이다.


사건 지표가 위험 회피 조직을 만든다는 문제

내가 앞서 한 말

진짜 노동을 보려면 사건으로 보자고 했다. 분쟁·리드타임·이탈 같은 사건의 비용을 줄이는 것이 가치라고 했다.
그리고 지표를 해킹하지 못하도록 쌍 지표와 감사가 필요하다고 했다.


왜 문제가 되는가

여기서 한 번 더 깊게 들어가야 한다.
분쟁 건수 같은 지표가 걸리면, 사람은 ‘좋은 해결’보다 ‘쉬운 회피’를 선택할 수 있다.
문제가 될 사람은 뽑지 않는다. 조치가 필요한 사람에게 침묵한다.
겉으로는 안전해 보이지만, 실제로는 조직이 늙고 무기력해진다.


이번 보완은 무엇인가

그래서 사건 지표는 반드시 ‘도전 지표’와 같이 둔다.
이건 ‘덜 하자’가 아니라, ‘해야 할 일을 하자’라는 방향으로 조직을 밀어준다.

예를 들어 인사에서라면,

안전 지표: 분쟁 건수, 재발률, 처리기간

도전 지표: 어려운 포지션 채용 시도, 성과관리 실행(피드백·개선), 전환 배치 정착률

이렇게 하면 “아무 것도 안 해서 사고가 없는 조직”은 도전 지표에서 점수가 떨어진다.
즉, 지표가 조직을 겁쟁이로 만들지 않도록 균형추를 걸어둔다.


AI는 ‘진실의 거울’이 아니라 ‘과거의 복제기’가 될 수 있다는 문제

내가 앞서 한 말

온프레미스 AI가 가짜노동을 드러내는 거울이 될 수 있다고 했다.


왜 문제가 되는가

반박은 아주 현실적이다.
AI는 내부 데이터를 먹고 자란다.
그 데이터가 오염되어 있으면, AI는 “오염된 최적화”를 해낸다.
가짜노동의 문서가 많을수록, AI는 가짜노동을 더 정교하게 권장할 수 있다.


이번 보완은 무엇인가

그래서 운영체제 교체 항목에 “자료 정리”를 넣는 수준으로는 부족하다.


정기적인 정화 과정을 제도화해야 한다.

낡은 문서·양식을 일정 주기로 폐기하고, 중복 정책을 통합하고, 데이터 정의를 통일한다.
그리고 가장 중요한 것은 “결정 기록”을 남기는 방식으로 자료의 중심을 바꾸는 것이다.
보고서보다 “무엇을 결정했고 왜 그렇게 했는지”가 남아야 AI는 조직을 똑똑하게 만든다.


마지막 질문: 왜 이기적인 경영자가 이 길을 택해야 하는가

내가 앞서 한 말

해고의 어려움과 분쟁 비용, 인재 이탈 비용을 근거로 “자르기보다 압축”이 합리적일 수 있다고 했다.


왜 더 강한 한 방이 필요한가

경영진은 언제든 이렇게 말할 수 있다.
“그럼 임금을 깎고 AI를 더 사겠다.”
“시간을 줄이지 말고 산출물을 더 뽑자.”

이 논리를 꺾으려면 ‘정서’가 아니라 ‘위험’을 보여줘야 한다.


이번 보완은 무엇인가

내가 더 공격적으로 강조하고 싶은 포인트는 이것이다.


가짜노동을 방치하면, 회사는 AI가 만든 가짜 결과물에 중독된다.

보고서는 늘어나는데 결정 품질은 떨어진다.
가짜 문서가 데이터로 쌓여 AI 추천 품질이 나빠진다.
사람은 생각을 멈추고, 조직의 판단력은 마비된다.

이건 비용 문제가 아니라 생존 문제다.
그래서 주 4일제는 복지가 아니다.
AI 시대의 가짜 결과물 중독으로부터 조직을 보호하는 해독제다.


결론: 메시지는 “압축”에서 “전환과 정리”로 확장된다

앞선 글이 “가짜노동의 종말”을 말했다면, 이번 글은 그 이후를 말한다.
가짜노동이 줄면 시간이 남는다.
그 시간은 자동으로 좋은 곳에 쓰이지 않는다.
그래서 운영체제가 필요하다.

남는 시간을 어디에 쓸지 목적지를 만든다(정리·안전·미래)

성과를 고정하는 게 아니라 성과를 올리는 규칙을 고정한다

안전 지표만 두지 않고 도전 지표와 함께 운영한다

AI가 학습할 데이터를 정기적으로 정화한다

마지막 설득은 “행복”이 아니라 “망하지 않기”로 한다

이제 ‘진짜 노동’은 더 많은 산출물을 만드는 일이 아니다.
조직이 생각하는 능력을 잃지 않도록, 시간과 규칙과 지표와 자료를 설계하는 일이다.


작가의 이전글가짜노동의 종말 AI 시대의 ‘진짜 노동’