AI 에이전트 시대, AI가 아닌 '내가' 문제였구나?

클로드 코워크가 흔든 AI 시장, AI는 게임체인저가 될 수 있는가?

최근 앤트로픽이 클로드 코워크(Claude Cowork)를 선보이면서 SNS와 유튜브에서는 연일 새로운 콘텐츠들이 올라오고 있습니다. 클로드 코워크는 사용자의 PC(폴더)에 직접 접근하여 파일 정리, 문서 생성, 데이터 분석 등 복잡한 업무를 스스로 실행하는 '자율형 AI 에이전트'인데요. 단순 조언을 넘어 실질적인 결과물을 만들어내어 SaaS 업계의 주가가 크게 하락하기도 하는 등 큰 반향을 불러오고 있습니다.


본 포스팅은 인공지능이 만드는 비즈니스모델과 일의 변화, AI 빅 웨이브-기술을 넘어 전략으로의 내용을 참고하여 구성하였습니다.


클로드 코워크가 가져온 충격

뭔가 아쉬운 답변의 무한 루프

그런데 AI로 이것저것 해보면서 많은 시간을 쓰고 있는데, 정작 업무와 작업 시간을 효율화하는 일에는 반복적으로 실패하는 경우가 많습니다(저의 이야기입니다). 여기에는 여러 이유가 있을 수 있는데요.


첫 번째는 AI의 능력치를 최대한 끌어내지 못하고 있다는 점입니다. 에이전트와 스킬, 플러그인 개념을 도입해보려 하면 어느새 또 뭔가 새로운 게 나왔다고 합니다. 배우다 시간 다 보내는 느낌을 지울 수 없습니다. 시간과 토큰을 소비해서 내뱉은 결과물에는 뭔지 모를 오류들이 있고, 오류를 던져주며 작업하다 보면 한 번도 해보지 못한 백엔드 서비스에, 서버 세팅에, 퍼블리싱에, 도메인 세팅까지 AI가 시켜서 내가 하고 있는 상황이 반복됩니다.


두 번째 문제가 사실 더 근본적인데요. 내가 내 업무와 역량을 정확하게 설명하고 구체화하지 못하고 있다는 것입니다. 느낌적 느낌으로 내가 무엇을 선호하고 어떻게 작업하는 것이 효율적인지는 알고 있지만, 막상 설명해내지는 못하고 있습니다. 인공지능에게 내가 어떻게 일하는지는 설명이 가능한데, 어떻게 생각하면서 일하는지는 나도 설명이 어렵습니다.


결국 여러 AI 서비스들을 써보면서 돈은 돈대로 들고, 시간은 시간대로 들여서 뭔가 계속 아쉬운 70~80점짜리 결과물만 확인하게 됩니다.

기업 측면에서 접근하기에는 아직은...

개인이 AI를 쓰는 것과 기업이 AI를 도입하는 것은 완전히 다른 문제입니다. 개인은 바로 써보고 편하면 계속 쓰면 됩니다. 그런데 기업에서는 그 결과물이 고객 응대나 중요한 의사결정에 바로 들어갈 수 있기 때문에, 훨씬 더 많은 검증 절차가 필요합니다.


기업이 AI 도입을 주저하는 이유는 크게 몇 가지입니다. 회사 내부 데이터를 외부 AI에 넣었을 때의 보안 문제, AI가 그럴듯하게 틀린 답을 내놓을 위험, 직원들이 새로운 방식에 적응하는 데 걸리는 시간, 그리고 도입 비용 대비 효과를 수치로 증명하기 어렵다는 점 등입니다.


그런데 개인이든 기업이든 공통적으로 부딪히는 더 근본적인 문제가 있습니다. 내가 어떻게 생각하면서 일하는지를 설명할 수 없다는 거죠. 어떤 결과물이 좋은지 나쁜지는 바로 느끼는데, 왜 그런지를 말로 설명하지 못합니다. 이걸 언어로 정리하지 못하면, AI는 계속 어중간한 70~80점짜리 결과물만 내놓을 수밖에 없습니다.


실제 조사 결과를 보면, 마이크로소프트의 공개 자료에서는 사용자들이 하루 평균 약 11분을 절약했다고 보고했고, 영국 정부의 공공기관 실험에서는 하루 평균 약 26분을 절약했다는 결과가 나왔습니다. 하지만 이는 AI가 잘 맞는 업무를 선별해서 쓴 경우의 이야기입니다. 내가 원하는 게 뭔지 명확하게 정의된 업무에서만 이런 숫자가 나오는 거죠.

원하는 것을 얻지 못하는 것은 나의 문제

기업이든 개인이든 AI를 활용하면서 계속해서 실패하는 경험이 많습니다. 예를 들어 MS 파워포인트에 클로드 코워크를 연결해서 내가 주로 사용하는 디자인 포맷에 맞게 슬라이드를 만들어낼 수 있습니다. 처음에는 "와, 이게 되네!"라며 감탄하지만, 실제 사용할 만한 수준의 내용을 만들다 보면 오히려 더 많은 시간이 들어갑니다. 원하는 수준이 아니다 보니 계속해서 요청을 하게 되고, 요청이 늘어나다 어느 순간 답변 내용이 산으로 가버립니다. 그 사이 토큰은 토큰대로, 시간은 시간대로 허비됩니다.


이런 경험이 몇 번 쌓이다 보면 'AI가 아니라 내가 문제구나'라는 생각을 하게 됩니다. 개떡같이 말해도 찰떡같이 알아들을 줄 알았는데, 명확히 요청하지 않으니 명확한 결과물을 받지 못하는 것입니다. 내가 나를 설명하지 못하기 때문에, AI가 얼핏 보면 그럴듯하지만 정작 쓸 수 없는 결과물만 내놓는 것입니다.


결국 핵심은 '클로드가 파워포인트 문서를 작성해 준다'가 아니라 내가 원하는 것을 얼마나 구체적으로 언어화할 수 있느냐에 달려 있습니다. '깔끔하게', '세련되게', '전문적으로'라는 표현은 나에게는 기준이 될 수 있지만, AI에게는 의미 있는 정보가 되지 않습니다. 내 기준을 AI가 이해할 수 있는 언어로 바꾸는 것, 그것이 AI를 제대로 활용하기 위한 진짜 역량임을 깨닫게 됩니다.


내가 하는 일을 구체적으로 설명하지 못하면, 그리고 왜 이 작업을 해야 하는지, 어떤 순서로 접근하는 것이 맞는지를 이야기하지 못하면, AI는 결과물만 흉내 내는 그럴듯한 파트너에 머물 뿐입니다. AI에게 "보고서 써줘"라고 하는 것과 "이 보고서는 의사결정권자를 설득하기 위한 것이고, 핵심 논리는 이렇고, 읽는 사람이 이 부분에서 이런 질문을 할 가능성이 높다"라고 설명하는 것은 완전히 다른 결과를 만들어냅니다. 결과물이 아니라 과정을, 완성본이 아니라 맥락을 설명할 수 있을 때 비로소 AI는 진짜 의미 있는 협업자가 됩니다.



AI 에이전트, 기업 현장에 들어올 준비가 됐을까?

편리함과 비용 사이, 적정기술을 고민해야

클로드 코워크 같은 자율형 AI 에이전트는 분명 흥미로운 가능성을 보여줍니다. 예를 들어 영수증 사진을 폴더에 넣어두면 클로드가 직접 파일에 접근해서 지출 결의서를 자동으로 작성해 주는 것도 가능합니다. 처음 보면 '이게 된다고?' 싶을 만큼 신기하죠.


그런데 잠깐 멈추고 따져봐야 할 게 있습니다. 이 작업을 위해서는 월정액 유료 요금제를 써야 한다는 점입니다. 영수증 정리가 한 달에 두세 번 있는 일이라면, 그 몇 번을 위해 매달 비용을 내는 게 과연 합리적인 선택일까요? 적정기술이라는 말이 있습니다. 더 쉽고 빠르게 처리할 수 있는 방법이 있는데 굳이 복잡한 방식을 쓰는 것이 효율적인지, 기업들은 고민을 할 것입니다.


AI 에이전트가 기업 운영에 들어오려면 단순히 '할 수 있냐'가 아니라 '쓸 만하냐'를 따지기 마련입니다. 사용 빈도, 비용 구조, 그리고 도입했을 때 실제로 줄어드는 시간이 얼마인지를 냉정하게 계산해봐야 하는 거죠. 신기하다고 해서 무조건 효율적인 건 아닙니다.


보안 문제는 생각보다 훨씬 심각할 수 있어

영수증을 정리하고 폴더 이름을 바꾸는 정도는 큰 문제가 되지 않습니다. 그런데 AI 에이전트가 로컬 파일에 접근한다는 것은 그 안에 있는 모든 것에 접근할 수 있다는 뜻이기도 합니다. 미처 마킹 처리하지 못한 개인정보, 결제 정보, 다른 서비스의 아이디와 비밀번호가 섞여 있다면 어떻게 될까요?


오픈AI, 구글, 앤트로픽 같은 대형 기업들은 이런 정보를 악용하지 않을 것입니다. 한 번의 사고로 회사 전체가 날아갈 수 있는 리스크를 감수할 이유가 없으니까요. 그런데 문제는 여기서 끝나지 않습니다. 대형 언어모델을 기반으로 만들어진 수많은 서드파티 AI 에이전트들도 같은 수준의 보안을 보장할 수 있을까요?


기업 입장에서 보안 사고는 단순한 실수로 끝나지 않습니다. 고객 신뢰가 무너지고, 법적 책임이 따르고, 브랜드 이미지가 한순간에 추락할 수 있습니다. AI 에이전트가 아무리 편리해도, 이 리스크를 감당할 준비가 되어 있지 않다면 도입을 서두르는 것은 위험한 선택일 수 있습니다.


문제가 생겼을 때, 책임은 누가 지나?

자율형 AI 에이전트가 나를 대신해서 쇼핑을 하고, 예약을 하고, 결제까지 진행했는데 어디선가 문제가 생겨 소비자 피해가 발생했다면 책임은 누구에게 있을까요? AI 모델을 만든 회사일까요, 그 모델로 에이전트를 만든 회사일까요, 아니면 동의 버튼을 누른 사용자일까요? 아직 이 질문에 대한 명확한 답이 없습니다.


현행 법체계는 AI 에이전트가 자율적으로 내린 판단과 그로 인한 결과를 온전히 다루기에 충분하지 않습니다. AI가 실수했을 때 이를 어떻게 증명하고, 누구에게 어떤 방식으로 보상을 청구할 수 있는지에 대한 기준이 아직 명확하지 않은 거죠. 편리함 뒤에 숨어 있는 이 불확실성은 개인보다 기업에게 훨씬 더 크게 다가옵니다.


AI는 분명 다가올 미래입니다. 그런데 아직은 불확실한 것들이 너무 많습니다. 기술이 가능하다는 것과 그 기술을 안전하게 쓸 수 있다는 것은 다른 이야기입니다. 지금 단계에서 기업이 해야 할 일은 빠르게 도입하는 것이 아니라, 어떤 조건이 갖춰졌을 때 도입할 수 있는지를 먼저 정의하는 것입니다.


그렇다면 어떻게 해야 할까?

작은 성공부터 쌓아가야

AI 에이전트를 둘러싼 불확실성이 크다고 해서 손을 놓고 있을 수는 없습니다. 시장을 리드하는 위치에 있는 기업이라면 지금이 준비할 적기입니다. 다만 한 번에 크게 도입하려는 시도보다는, 보안 이슈가 상대적으로 적은 마케팅이나 콘텐츠 제작 같은 영역에서 먼저 써보면서 작은 성공 경험을 하나씩 축적해 나가는 방식이 현실적입니다.


개인 차원에서도 마찬가지입니다. 개인정보 보호에 대한 충분한 인식을 갖추고, 가능한 수준까지 적극적으로 활용해 보면서 나의 업무를 효율화해 나가는 것이 필요합니다. 무작정 많이 쓰는 것이 아니라, 어디까지 쓸 수 있고 어디서부터는 조심해야 하는지를 직접 경험하면서 기준을 만들어가는 거죠.


기술의 발전 속도는 우리의 예상을 늘 앞서가고 있습니다. 지금 당장 완벽한 도입 전략을 세우는 것보다, 꾸준히 모니터링하면서 조금씩 활용도를 높여가는 것이 가장 현실적이지 않을까 싶습니다. 신기하다고 앞서 달려갈 필요도 없고, 두렵다고 뒷걸음치지 않는 것입니다(너무 중립적인 자세일까요?


후발주자라면, AI가 게임체인저가 되어야

반면 시장에서 후발주자 위치에 있는 기업이나 개인에게 AI 에이전트는 오히려 판을 뒤집을 수 있는 기회가 될 수 있습니다. 기존의 방식과 구조를 고수할 이유가 적기 때문에, 오히려 AI를 더 과감하게 받아들이고 새로운 방식으로 일하는 구조 자체를 다시 설계할 수 있습니다.


역사적으로 보면 새로운 기술이 등장했을 때 기존 강자보다 새로운 도전자가 더 빠르게 적응하는 경우가 많았습니다. 지킬 것이 많을수록 변화는 느려지고, 잃을 것이 적을수록 변화는 빨라지기 때문입니다. AI 에이전트가 가져오는 변화도 마찬가지입니다. 후발주자에게는 따라잡을 수 있는 무기가 될 수 있습니다.


물론 이때도 무작정 달려가는 것은 위험합니다. 앞서 이야기한 보안과 책임의 문제는 후발주자도 피해 갈 수 없으니까요. 하지만 리스크를 인식하면서도 더 적극적으로 실험하고, 더 빠르게 학습하는 자세로 임한다면 AI 에이전트는 분명 게임체인저가 될 수 있습니다. 결국 AI 시대의 승자는 기술을 가장 먼저 가진 자가 아니라, 기술을 가장 잘 활용하는 자가 될 것입니다.

AI.png AI 에이전트 시대, AI가 아닌 '내가' 문제였구나


작가의 이전글[근황 공유] 신간 출간, 강의, 이러닝, AI이야기.