공공 AI Agent 도입, ‘운동장’을 설계하라

by HRKIM

들어가며


최근 공공부문에서 AI Agent를 어떻게 도입해야 하는지에 대해 계속해서 고민하고 있다. 공공은 민간과 다른 제도적·조직적 특성을 지니고 있기 때문에, 민간의 사례를 그대로 적용하는 데에는 분명한 한계가 있다. 그렇다고 기존의 IT 시스템 도입 방식으로 AI를 다루는 것 역시 적절하지 않다. AI는 단순한 기술이 아니라, 일하는 방식 자체를 변화시키는 도구이기 때문이다.


이러한 고민에 실마리를 제공한 것은 AI 활용 심사를 위해 참석했던 한 공공기관의 사례였다. 해당 기관에서는 외부 용역을 통해 구축한 AI 표준 환경 안에서, 현업 직원들이 자신의 업무 흐름에 맞는 AI 프로그램을 직접 구성하고 있었다. 현업이 AI Agent를 설계하면 IT 부서가 이를 검토·승인하고, 이후 실제 업무에 적용하는 구조였다. 누군가 대신 만들어준 AI를 일방적으로 사용하는 방식이 아니라, 현업이 업무 맥락에 맞게 AI를 커스터마이징해 활용하는 방식이었다.


그 장면을 보며 확신이 들었다. 향후 공공의 AI Agent 도입은 더 이상 일방향적인 시스템 구축이 아니라, 안전한 거버넌스 하에서 ‘운동장’을 만들고 그 안에서 현업이 직접 참여하는 워크플로우 구축으로 나아가야 한다는 점이다. 이 글에서는 AX(AI Transformation) 시대에 공공조직이 반드시 고민해야 할 변화 포인트를 세 가지로 정리해 보고자 한다.


1. '비결정론적' AI의 특성을 제도적으로 인정해야 한다.


기존의 공공 IT 시스템은 철저히 결정론적(Deterministic) 구조를 기반으로 설계되어 왔다. 입력값 A를 제시하면 결과 B가 항상 동일하게 도출되어야 했고, 이러한 특성 덕분에 IT 부서가 사전에 완결된 로직을 설계하는 것이 가능했다. 이 구조는 행정의 안정성과 책임성을 담보하는 데 효과적이었다.


그러나 AI는 본질적으로 확률적(Probabilistic)이다. 동일한 질문이라 하더라도 맥락, 조건, 데이터에 따라 서로 다른 결과를 제시할 수 있다. 문제는 바로 이 지점에서 발생한다. 이 ‘맥락’을 가장 정확하게 이해하는 주체는 시스템 설계자인 IT 부서가 아니라, 실제 업무의 책임을 지고 있는 현업 담당자라는 점이다.


AI 시대에는 IT 부서가 모든 상황을 사전에 예측하고 완벽한 로직을 설계하는 것이 사실상 불가능해졌다. 따라서 AI 시스템 설계는 더 이상 ‘완벽한 사전 설계’를 전제로 할 수 없으며, 현업의 판단과 개입이 구조적으로 허용되는 설계가 중요해졌다. 이는 기술의 문제가 아니라, 제도와 조직 운영 방식 전반의 전환을 요구하는 변화다.


2. 협업은 '시민 개발자'로 진화되어야 하며, 거버넌스는 강화되어야 한다.


과거 일부 공공조직에서는 IT 부서의 통제와 표준을 중시하는 과정에서, 현업이 시스템에 직접 개입하는 방식 자체가 부정적으로 인식되어 왔다. 그러나 이러한 관성을 AI 시대까지 그대로 유지한다면, AX는 실패할 가능성이 높다. 현업이 AI를 만지지 못하는 조직에서 AX는 결국 또 하나의 IT 사업으로 끝난다.


AI Agent는 업무 흐름 속에서 지속적으로 조정되고 반복적으로 개선될 때 비로소 의미를 갖는다. 이를 현업이 아닌 IT 부서만의 영역으로 남겨두는 순간, AI는 실제 업무와 분리된 ‘시범 시스템’으로 전락한다. 따라서 AI 시대의 협업은 현업을 배제한 통제가 아니라, 명확한 거버넌스 하에서 현업을 ‘시민 개발자(citizen developer)’로 참여시키는 구조로 재정의되어야 한다. 더 나아가 해커톤, 사례 공유, 실습 중심 프로그램 등을 통해 현업의 자발적 참여를 촉진할 필요가 있다.


이러한 변화는 IT 부서의 역할 축소를 의미하지 않는다. 오히려 단순 구현 중심의 역할에서 벗어나, 플랫폼 아키텍처 설계, 표준 관리, 보안 검증, 품질 승인이라는 전략적 역할로의 확장을 의미한다. 결과적으로 IT 부서와 현업 간의 협업은 느슨해지는 것이 아니라, 더 정교한 거버넌스를 기반으로 강화되어야 한다.


3. Human in the Loop로 책임 구조를 명확히 하여야 한다.


공공조직에서 AI 도입이 특히 신중할 수밖에 없는 이유는 기술 그 자체보다 책임의 문제에 있다. 따라서 AI는 최종 결정을 내리는 주체가 아니라, 조직의 의사결정을 지원하는 보조 주체(Assistant)로 명확히 정의되어야 한다. 결과의 검토, 판단, 승인, 그리고 책임은 반드시 인간에게 귀속되어야 한다.


이러한 Human in the Loop 구조를 가장 현실적으로 구현할 수 있는 주체 역시 현업 부서이다. 현업이 AI Agent 플랫폼을 통해 자신의 업무에 맞는 AI를 구성하고, IT 부서가 이를 시스템적으로 검토·승인하며, 실제 업무 과정에서는 AI가 효율성을 높이되 최종 판단에는 반드시 사람이 개입하는 워크플로우가 구축되어야 한다. 'AI는 결정을 대신하는 존재가 아니라, 판단의 질을 높이기 위한 도구여야 한다'는 원칙은 공공조직에서 더욱 분명하게 유지되어야 한다.


나가며


공공조직의 IT 시스템은 여전히 외부 용역을 통해 구축되는 경우가 많고, 내부 IT 부서는 개발보다는 보안과 시스템 검토에 더 많은 역할을 수행하고 있다. 이러한 현실을 고려할 때, AI Agent 시대에 공공조직이 성공적으로 적응하기 위해서는 IT 부서가 민간 개발업체와 협력하여 공공 특성에 맞는 AI Agent 플랫폼을 정교하게 구축하는 것이 중요하다.


이 과정에서 IT 부서는 민간 개발업체와 현업 부서를 연결하는 핵심적인 가교 역할을 수행해야 한다. 현업의 업무 맥락과 요구가 실제 시스템 설계와 구현으로 이어질 수 있도록 구조를 설계하고, 플랫폼 차원의 표준과 보안, 품질 관리 체계를 확립하는 역할이 IT 부서의 중요한 책무가 된다. 동시에 현업의 ‘시민 개발자’들이 AI Agent를 올바르게 설계하고 활용할 수 있도록, 관련 부서와 협업하여 체계적인 역량 강화 교육을 추진할 필요가 있다. 아울러 현업이 구성한 AI Agent가 공공조직의 책임성과 신뢰성을 훼손하지 않도록, IT 부서는 이를 지속적으로 검토·승인하고 안정적으로 운영할 수 있는 거버넌스를 유지해야 한다. 이는 통제를 위한 통제가 아니라, 현업의 자율적 활용을 제도적으로 뒷받침하기 위한 필수 조건이다.


현업 부서 역시 AI Agent를 모든 업무를 대신해주는 자동화 도구로 인식하기보다, 업무 효율성과 판단의 질을 높이는 보조 주체(Assistant)로 인식할 필요가 있다. 최종적인 판단과 의사결정, 그리고 그에 따른 책임은 반드시 사람에게 귀속되어야 한다는 원칙은 AI Agent 시대의 공공조직에서도 변함없이 유지되어야 할 핵심 기준이다.



keyword
매거진의 이전글공공기관 AX 도입이 어려운 진짜 이유