SCM/구매 전문가가 준비할 '업스킬링'

AI가 75%의 업무를 자동화할 때

by 구매가 체질

역설적이게도 평소처럼 업무 자동화를 위해 생성형 AI에게 질문을 던져놓고 인터넷 기사를 보다가 멈칫했다.

눈에 들어온 한 컨설팅사의 2025년 보고서. 제목부터 심상치 않았다. "AI가 구매 업무의 최대 75%를 자동화할 수 있다." 다른 보고서의 숫자도 비슷했다. "구매 기능의 50~80%가 자동화될 잠재력이 있다."


숫자가 주는 무게감이 달랐다. 이건 더 이상 '미래의 위협'이 아니었다. 바로 지금, 내 책상 위의 일들이 사라질 수 있다는 신호였다.




난 '거래 관리자'였다


솔직히 말하면, 나는 내 일에 꽤 익숙했던 것 같다.

지출 데이터를 취합해서 보고서를 만들고, RFX (RFQ, RFI 등) 문서를 작성하고, 새로운 계약이 우리 회사의 구매 정책(내부 통제)에 부합하는지, 그리고 공급업체의 리스크(외부 리스크)는 없는지 검토하는 것. 그게 내 전문성이었다. 적어도 나는 그렇게 믿었다.


그런데 최근 업계 서베이를 읽는 순간, 등골이 서늘해졌다. AI는 이미 몇 번의 프롬프트만으로 RFX 문서 초안과 계약서 요약본을 생성하고 있었다. 심지어 2025년을 전망하는 한 보고서는, 초기 도입 기업들이 2024년에 이미 생산성 10% 개선을 경험했다고 분석했다.


10%가 뭐가 대수냐고? 그게 시작이라는 게 문제다.


반복 작업이 사라진 자리에 남는 건


솔직히 말하면, 처음엔 그냥 패닉이었다. '대체 불가능한 가치'? 그런 거창한 생각은 나중 일이고, 당장 3년 후에도 내가 이 자리에 있을 수 있을까가 먼저였다. 퇴근길 지하철에서 링크드인을 뒤적였다. 'AI + SCM' 검색. 미국 대학들의 커리큘럼이 보였다. RAG, 프롬프트 엔지니어링, AI 윤리... 그 단어들이 뭔지도 잘 모르면서 적었다. 하지만 적고 며칠을 고민해보니 보였다. 패턴이. AI를 '쓰는' 법이 아니라, AI를 '다루는' 법을 가르치고 있었다.


AI가 내 반복 업무를 가져간다면, 나는 그 AI를 '다루는 사람'이 되면 된다.

그렇게 나는 2025년의 직무 기술서를 다시 쓰기 시작했다.


1. 데이터 집계자에서 → AI 커스터마이징 전문가로

예전의 난 이랬다.


흩어진 ERP와 시스템에서 데이터를 모아 엑셀로 '지출 분석 보고서'를 만들었다. 주말을 반납하면서까지. 하지만 이게 BCG가 말한 '자동화되는 분석 및 운영 역할'의 전형이라는 걸 깨달았다.


그래서 새로운 역할을 정의했다.

AI에게 '회사 데이터'를 가르치는 전문가.


단순히 ChatGPT 쓰는 게 아니다. 2025년 오하이오 주립대학(OSU)의 'SCM-GenAI 전문가 과정'을 보면, 'GenAI 커스터마이징(RAG, Fine-tuning)'이 핵심 과목이다.


RAG(Retrieval-Augmented Generation)가 뭐냐고? AI가 우리 회사 내부 데이터를 기반으로 답변하게 하는 기술이다. 과거 계약서, 공급업체 성과 데이터 같은 것들 말이다.

내가 실제로 할 일:
범용 AI에게 "공급업체 찾아줘"라고 묻지 않는다. 대신 이렇게 지시한다.

"A부품의 품질 기준을 만족시키면서, 작년 납기 준수율 95% 이상이고, ESG 평가 B등급 이상인 공급업체 3곳을 추천하고 근거를 요약해 줘."

그 전에 우리 회사 데이터를 RAG로 연결해 놓는다. AI는 도구다. 하지만 그 도구에 '우리 회사 맥락'을 가르치는 건 내 몫이다.


2. 리스크 검토자에서 → AI 윤리 감사관으로

예전의 나는 계약서의 법적 조항을 수동으로 검토했다. 시간이 오래 걸렸지만, 그게 내 가치라고 생각했다.

하지만 AI는 이제 나보다 빠르게 리스크 조항을 찾아낸다.


그렇다면 내가 할 일은?

AI가 내린 결정을 비판적으로 '심문'하고, 그 결과의 '윤리성'을 감사하는 것.


BCG는 2025년 급증할 기술로 '프롬프트 엔지니어링'과 함께 '규정 준수 및 윤리(Compliance and Ethics)'를 꼽았다. 이건 더 이상 법무팀만의 일이 아니다. OSU나 올드 도미니언 대학의 SCM 과정에서도 'AI 윤리'를 가르친다.

내가 실제로 할 일:
AI가 '비용 최적화'를 이유로 특정 지역 공급업체들만 추천했다고 치자. 나는 이렇게 묻는다.

이 결정에 '데이터 편향(Bias)'은 없었나?
AI가 학습한 데이터가 우리 회사의 ESG 원칙을 준수했나?
생성된 계약서 초안이 현지 규제를 위반하지 않나?

그리고 '최종 승인'은 내가 한다. AI는 추천할 수 있지만, 책임은 인간이 진다.


3. 요청 처리자에서 → AI 기반 내부 전략 컨설턴트로

예전의 나는 현업 부서의 '구매 요청'을 받아 처리하는 '지원 부서'였다.


이제는?

AI가 자동화로 벌어준 '시간'을 활용해, 현업의 '비즈니스 문제'를 해결하는 '내부 전략 컨설턴트'가 되는 것.

Deloitte의 2024년 CPO 서베이에서 리더들이 AI에 기대하는 최고의 가치는 비용 절감을 넘어 '향상된 분석 및 의사결정'이었다. SCM 담당자가 단순 실행자에서 '전략적 비즈니스 파트너'로 진화해야 한다는 뜻이다.

내가 실제로 할 일:
AI를 활용해 '원자재 가격 변동 시뮬레이션'을 돌린다. 그 결과를 가지고 신제품 개발팀에 먼저 제안한다.

"이 부품 대신 저 대체재를 쓰면 원가를 15% 낮추고 공급망 리스크를 30% 줄일 수 있습니다."

데이터 기반 전략. 기다리지 않고 먼저 제안하는 사람.


'어떻게'가 문제다

AI 시대에 '생존'한다는 건 AI보다 엑셀을 빨리 돌리는 게 아니다.


96%의 SCM 리더가 역할 변화의 필요성은 알지만, '어떻게' 변해야 할지 모른다고 한다. MIT 연구에 따르면 SCM 전문가 67%가 기본적인 데이터 분석 기술조차 부족하다.


여기서 역설이 생긴다.


AI가 대체하는 건 '단순 분석'이다. 하지만 AI가 대체 못 하는 건 '비판적, 전략적 분석'이다. 그런데 정작 우리는 후자를 배우지 못했다.


나도 그 96% 중 한 명이다


2025년, 나의 새로운 직무 기술서

이 글을 쓰고 나니 웃음이 났다. '새로운 직무 기술서'라고 거창하게 썼지만, 사실 나도 RAG가 정확히 뭔지 아직 모른다. GenAI 커스터마이징은 유튜브 영상 2개 봤다가 포기했다.

96%의 SCM 리더가 '어떻게' 변해야 할지 모른다는 통계를 읽으면서, 나도 그 중 한 명이라는 걸 인정하는 데 시간이 걸렸다. MIT는 SCM 전문가 67%가 기본 데이터 분석도 부족하다고 했다. 나도 정확히 그랬다. AI가 대체하는 '단순 분석'은 할 줄 알지만, AI가 못 하는 '비판적, 전략적 분석'은 배운 적이 없다. 하지만 적어도 이건 안다. 2025년 12월 31일, 나는 이 글을 다시 열어볼 것이고, "얼마나 바꿨나?" 스스로에게 물을 것이다. 그 질문이 부끄럽지 않도록, 오늘부터 한 줄씩 다시 쓰기로 했다. 진짜 직무 기술서는 선언문이 아니라, 365일의 작은 실행들이니까.

keyword
작가의 이전글회삿돈이 '게임 머니'처럼 느껴질 때