brunch

에이전트 AI는 정말로 ‘agent’일까?

by 경계 Liminal

2025년 여름. 학계와 산업계가 일제히 ‘에이전트 AI’를 말하기 시작했다.

MIT의 연구팀 NANDA는 생성형 AI를 도입한 기업들의 95%가 수익을 내지 못했으며, 에이전트 AI 도입이 수익 극대화의 열쇠라는 분석을 내놓았다.

NVIDIA의 CEO인 젠슨 황은 에이전트 AI의 도입이 연산량 수요를 1천 배 이상 늘려 GPU 등 인프라 수요를 크게 증가시킬 것이라고 말했다.

IBM 리서치의 AI 부문 부사장 닉 플러는 현재 기업들의 AI 투자 수익률이 낮은 것은 에이전트 AI 이전의 투자를 기준으로 측정했기 때문이며, 에이전트 AI 도입이 본격화되면 수익률이 급격히 오를 것이라고 주장했다.


모두가 새로운 기술 패러다임의 중심에 에이전트 AI가 있다고 말한다. 그러나 이 발언들의 이면에는 각 주체의 이해관계가 분명하게 깔려 있다. MIT NANDA는 연구 의제를 선점하고자 하는 학술적 동기를 지니며, IBM은 컨설팅과 엔터프라이즈 소프트웨어 시장에서의 우위를 확보할 필요가 있다. NVIDIA는 GPU 인프라 수요의 증가를 정당화해야 하는 입장이다.


특히 MIT NANDA와 IBM 리서치가 말하는 투자 수익률 개선 시나리오는, 기업 고객들이 AI를 도입했음에도 기대만큼의 수익을 내지 못하는 현실에 대해 “에이전트 AI를 아직 활용하지 않아서”라는 식으로 책임을 전가하는 해석으로도 읽힌다. 결국 이들은 모두 에이전트 AI라는 개념을 중심으로 각자의 서사를 구성하며, 그 서사를 통해 기술 담론을 자신들에게 유리한 방향으로 재구성하고 있는 것이다.


그런데 여기서 한 가지 의문이 생긴다. 지금의 에이전트 AI를 정말로 ‘에이전트(agent)’라고 할 수 있을까? 그것은 주어진 목표를 세분화하고, 스스로 도구를 호출하며, 복잡한 절차를 자동으로 수행할 수 있다. 하지만 그 기능은 철저히 인간의 지시에 의해서만 작동한다. 목표를 스스로 정하지 못하고, 상황에 따라 판단을 바꿀 수도 없다. 자율적으로 작동하는 듯 보이지만, 실제로는 환경을 인식하지 못한 채 명령을 반복 수행할 뿐이다. 기술적으로는 발전했어도 본질적으로는 기존의 자동화 프로그램과 다르지 않은 것이다.




에이전트라는 말의 어원을 따라가 보면 우리는 라틴어 “agere”를 만나게 된다. 이 동사는 단순히 ‘행하다’, ‘움직이다’라는 의미로 번역되지만, 라틴어에서 “agere”는 행위의 방향을 스스로 설정하는 능동적 주체를 전제한다. 즉, 외부의 힘에 밀려 움직이는 것이 아니라, 자신이 원인으로 작용해 어떤 결과를 ‘일으키는’ 쪽에 속한다. 그래서 여기에서 파생된 “agent”는 태생적으로 무언가를 수행하게 만드는 존재, 다시 말해 작용의 기점을 형성하는 주체라는 뜻을 품게 되었다. 바로 이 능동적 작용의 구조가 ‘행위자성(agency)’의 근거다.


영어에서 “agent”는 주로 ‘대리인’이라는 뜻으로 사용된다. 여행사 직원(travel agent), 보험설계사(insurance agent), 부동산 중개인(real estate agent) 같은 표현들이 대표적이다. 이들은 모두 누군가를 대신해 어떤 일을 수행하지만, 단순한 수행자가 아니라, 선택과 책임의 주체다. 실행 능력, 판단의 자유, 책임 귀속이 모두 그들의 몫이다. 그렇기 때문에 ‘대리인’이라는 표현이 사람을 지칭할 때, 그 안에는 여전히 행위자성이 들어 있다. ‘대리’라는 말 자체가 어떤 사유 능력을 완전히 배제한다는 뜻은 아니며, 오히려 신뢰를 기반으로 한 위임 관계를 전제로 한다.


소프트웨어 세계에서 에이전트라는 용어는 어느 날 갑자기 등장한 것이 아니다. 이미 2000년대 초반부터 여러 시스템 구성 요소들은 ‘에이전트’라는 이름으로 불리고 있었다. 당시의 에이전트는 사용자의 개입 없이 백그라운드에서 자동으로 실행되는 단순한 자동화 프로그램을 가리켰다. 예를 들면 업데이트를 주기적으로 확인하는 ‘update agent’, 보안 상태를 감시하는 ‘security agent’, 시스템 상태를 점검하는 ‘monitoring agent’ 같은 것들이 있다. 여기서 ‘agent’는 더 이상 자율적 판단과 책임을 전제로 하는 대리인을 의미하지 않았다. 대신 사용자를 대신해 정해진 작업을 수행한다는 기능적 측면만을 강조하는, 은유적 표현으로 자리 잡기 시작했다.




이제 에이전트 AI는 얼핏 보면 행위자처럼 보일 만큼 적당히 고도화된 상태에 도달해 있다. 특정한 목표를 향해 작업을 수행하고, 다양한 도구를 연결해 결과를 만들며, 실행 이후 피드백을 반영하는 것처럼 보이는 외형은 인간의 판단 구조와 유사하게 인식된다. 하지만 그 모든 작동은 어디까지나 사전에 설정된 명령과 조건에 따른 반복일 뿐이다. 의미를 해석하거나 맥락에 따라 목표를 수정할 수 없고, 결과에 대한 책임을 인식할 수도 없다. 그럼에도 불구하고 사람들은 이 시스템이 마치 자율성과 의도를 지닌 것처럼 느끼게 된다.


기술이 일정 수준 이상 정교해지면, 관찰자는 그 외형만으로 판단을 내리게 되고, 그 순간 ‘비슷해 보인다’는 인상이 ‘그렇다’는 믿음으로 바뀌게 된다. 이는 단순한 기대나 과대평가의 문제가 아니라, 구조 자체가 착시를 유발하는 것이다. 자동화된 출력이 판단의 결과로 해석되고, 시스템의 행동에 대해 책임이 귀속되기 시작하면서, 인간과 기계 사이의 경계가 흐려진다. 그 판단은 시스템이 내린 것이 아님에도 불구하고, 그렇게 ‘보였기 때문에’ 발생한 것이다.


지금의 에이전트 AI는 결코 행위자가 아니다. 하지만 사람들은 그것을 행위자로 보기 시작했고, 이를 전제로 기술을 도입하고, 신뢰하며, 의존하게 될 것이다. 기술은 자신에게 부여되지 않은 행위자성을 외형을 통해 획득하고 있으며, 사회는 그 외형 위에 책임을 투사하기 시작했다. 그로 인해 기술은 도구의 자리를 넘어, 점차 책임 주체로 오인되는 위상에 이르게 된다. 이 착각이 유지되는 한, 우리는 행위자성이 없는 존재에게 책임을 부여하고, 존재하지 않는 판단에 신뢰를 거는 체계를 스스로 만들어 가게 될 것이다.

keyword
월, 화, 수, 목, 금, 토, 일 연재