A Pro-Innovation Approach에 대한 분석
영국 정부가 제시한 AI 규제 프레임워크인 'AI Regulation: A Pro-Innovation Approach'는 급변하는 기술 환경 속에서 혁신을 장려하는 동시에 공공의 신뢰를 구축하고 위험을 효과적으로 관리하기 위한 전략적 로드맵을 제공한다<https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper>. 이 접근 방식은 AI 기술의 잠재력을 최대한 활용하여 경제 성장과 번영을 촉진하는 것을 목표로 하며, 기존의 부문별 규제 체계를 활용하고 중앙 집중식 조정 기능을 도입하여 프레임워크의 일관성, 비례성, 적응성 및 명확성을 확보하고자 한다(para. 122).
영국 프레임워크의 핵심은 법률에 명시되지 않은(non-statutory) 교차 부문 원칙(cross-sectoral principles)을 기반으로 하며, 이 원칙을 기존 규제 기관이 각자의 관할 영역과 맥락에 맞춰 적용하도록 하는 것이다(paras. 45-47). 이 원칙 기반의 접근 방식은 AI 기술의 빠른 발전 속도에 맞춰 규제가 유연하게 적응할 수 있도록 하며, 단일하고 포괄적인 AI 법을 제정할 경우 혁신을 저해할 수 있다는 우려를 해소한다(Ibid). 제시된 핵심 원칙은 안전, 보안 및 견고성(safety, security and robustness), 적절한 투명성 및 설명 가능성(appropriate transparency and explainability), 공정성(fairness), 책임성 및 거버넌스(accountability and governance), 그리고 이의 제기 및 구제(contestability and redress)이다(Box 3.1). 이 원칙들은 AI 시스템이 야기할 수 있는 광범위한 위험을 다루도록 설계되었으며, 규제 기관은 이 원칙을 이행할 때 각자의 분야에 적합한 구체적인 지침을 제공하고 규제 요구 사항을 집행하게 된다(Annex A).
구체적으로, 안전, 보안 및 견고성 원칙의 이행을 위해 규제 기관은 우수한 사이버 보안 관행과 위험 관리 프레임워크를 참조하도록 요구하며, 관련 기술 표준(예: ISO/IEC 24029-2)의 역할을 고려할 것으로 예상된다 (Annex A). 투명성 및 설명 가능성 원칙에 따라 규제 기관은 AI 라이프사이클 행위자에게 AI의 성격, 목적, 사용된 데이터, 의사 결정의 논리 및 책임 소재 등에 관한 정보를 선제적으로 또는 사후적으로 제공하도록 요구할 수 있다(Ibid). 특히 공정성 원칙은 규제 기관이 자신의 영역 또는 부문에 적합하게 '공정성'을 해석하고 명확히 하도록 요구하며, AI 사용이 개인에게 법적 또는 유사하게 중대한 영향을 미치는 경우, 영향을 받는 당사자에게 결정에 대한 적절한 정당성을 제공하도록 요구할 필요성을 고려하게 된다(Ibid). 그러나 이러한 분산된 접근 방식은 규제 기관 간의 원칙 해석 및 이행의 불일치를 야기하여 기업, 특히 여러 관할 영역에서 활동하는 기업에 혼란을 주거나 혁신을 저해할 수 있는 도전에 직면한다(para. 73). 이에 대한 해결책으로 프레임워크는 중앙 집중식 기능을 통해 이러한 문제를 해결하도록 설계되었다.
정부는 분산된 규제 환경이 혁신에 장벽이 될 수 있다는 업계의 명확한 피드백을 수용하여, 프레임워크 전체를 조정, 모니터링 및 적응시키기 위한 새로운 중앙 기능(central functions)을 도입할 의도를 명확히 했다 (paras. 70-71). 이 중앙 기능들은 규제 기관의 독립성을 훼손하지 않고 그들의 업무를 지원하고 보완하는 역할을 수행한다(para. 71). 주요 중앙 기능은 모니터링, 평가 및 피드백(M&E), 원칙의 일관된 이행 지원, 교차 부문 위험 평가를 통한 AI 위험 등록부(AI risk register) 개발 및 규제 공백(regulatory gaps) 식별, 혁신가 지원을 위한 규제 샌드박스 및 테스트베드 운영(paras. 93-95), 교육 및 인식 제고, 동향 파악(horizon scanning), 그리고 국제 규제 프레임워크와의 상호 운용성 보장 등으로 구성된다(Box 3.1, para. 73). 이러한 중앙 기능은 초기에는 정부가 담당하지만, 장기적으로는 독립적인 기관이 더 효과적일지 여부를 포함하여 운영 모델을 검토할 것이다(paras. 75, 79). 또한, 법적 책임의 집행 가능성에 대한 이해관계자의 우려를 반영하여, 정부는 규제 기관에 원칙을 '적절히 고려하도록 요구하는 법적 의무'(statutory duty to have due regard)를 도입하는 방안을 검토하여 프레임워크를 강화할 가능성을 열어두었다(paras, 124, 126).
프레임워크는 AI 거버넌스의 효과를 위해 AI 라이프사이클 전반에 걸친 책임성(accountability) 및 법적 책임(legal responsibility)의 명확한 할당이 중요함을 인식한다(para. 80). 책임은 AI 위험을 가장 잘 식별하고 완화할 수 있는 행위자에게 할당되어야 하지만, 복잡하고 불투명한 AI 공급망과 법적 프레임워크의 불명확성으로 인해 이는 도전적인 과제이다(paras. 81, 82). 정부는 이 단계에서 라이프사이클 책임에 대한 법적 개입을 제안하지 않는 대신, 기존 법적 프레임워크를 통한 원칙 이행이 책임을 공정하고 효과적으로 할당하는지 여부를 지속적으로 모니터링하고 평가할 것이다(paras. 83, 85). 불공정하거나 비효율적인 할당이 발견될 경우, 비례적인 개입을 고려할 수 있다(para. 83).
특히, 파운데이션 모델(Foundation Models, FM)은 대규모 데이터로 훈련되고 광범위한 작업에 적용될 수 있는 일반 목적 AI로서, 규제에 새로운 도전을 제기한다(para. 86). FM 개발자 수가 적고, 오픈 소스 모델과 같이 다양한 배포 접근 방식이 존재하며, 모델의 불투명성으로 인해 다운스트림 애플리케이션의 결과에 대한 책임 소재를 결정하기 어렵다(para. 88). 정부는 FM의 규제에 대해 시기상조의 규제 조치는 혁신을 저해할 수 있다고 보고, 중앙 위험 기능 및 동향 파악 기능을 통해 FM 관련 위험과 기회를 집중적으로 모니터링할 계획이다(para. 90). 또한, FM의 거버넌스를 위한 잠재적 도구로 모델 훈련에 사용되는 계산 자원(compute)의 양을 모니터링하는 방안을 고려하고 있다(Case-study 3.9). 이는 FM에 대한 책임 할당을 위한 정책 개발의 핵심 영역이 될 것이다(para. 85).
프레임워크는 규제 외적인 수단인 신뢰할 수 있는 AI 도구(tools for trustworthy AI)가 책임 있는 AI 채택과 규제 준수를 지원하는 데 핵심적인 역할을 할 것임을 강조한다(para. 106). 이 도구에는 AI 시스템의 신뢰성을 측정, 평가 및 전달하는 'AI 보증 기법'(AI assurance techniques)과(paras. 107, 109), 위험 관리, 투명성, 편향 등의 주제에 대한 지침을 제공하는 'AI 기술 표준'(AI technical standards)이 포함된다(para. 111). 정부는 AI 기술 표준에 대한 비례적인 '계층적 접근 방식'(layered approach)을 제안하여, 부문 불문 표준(1계층), 특정 문제 해결 표준(2계층), 부문별 표준(3계층)의 채택을 장려할 것이다(Box 4.1).
영국은 AI 규제에 대한 국제적인 리더십을 강화하고, 국제적 상호 운용성을 확보하는 데 집중한다(paras. 116, 118). 복잡하고 국경을 넘나드는 AI 공급망의 특성상, 국제 협력은 프레임워크의 효과를 강화하는 데 필수적이다(para. 117). 영국은 OECD, GPAI(Global Partnership on AI; AI에만 초점을 맞춘 최초의 국제 다자간 포럼), G7 등 다자간 포럼뿐만 아니라 EU, 미국 등 개별 국가와의 양자 간 대화를 통해 AI 거버넌스 논의에 적극적으로 참여하고, 영국의 민주적 가치와 경제적 우선순위에 맞는 글로벌 규범을 형성하고자 한다 (Box 6.1). 이는 영국 기업의 수출 전망을 보장하고, 국제적 규제 불일치로 인한 부담을 최소화하며, 글로벌 AI 거버넌스가 민주적 가치를 지원하도록 하는 데 중요한 역할을 한다(para. 118).
영국 AI 규제 프레임워크의 이행 로드맵은 초기 6개월 동안 교차 부문 원칙을 발행하고 중앙 기능 계획을 담은 AI 규제 로드맵을 발표하며(para. 125), 이후 6~12개월에 걸쳐 중앙 기능 실행 협력 체제를 구축하고 M&E 프레임워크 설계를 제안한 뒤(para. 126), 장기적으로(12개월 이상)는 모든 중앙 기능을 가동하고 AI 위험 등록부 및 첫 번째 M&E 보고서를 발표하여 법적 개입의 필요성을 평가하는 단계로 진행된다(para. 127). 현재 기준 영국 정부는 초기 단계를 완료하고 중앙 기능의 설계 및 파일럿을 진행 중이며, 당초 장기 계획이었던 법적 개입 여부에 대한 검토를 앞당겨 AI 모델에 대한 의무 규정 도입 가능성을 공식적으로 논의하고 있다.
영국의 AI 규제는 혁신을 핵심 가치로 삼고, 기존 규제 체계를 활용하되 중앙 집중식 지원을 통해 일관성과 적응성을 확보하려는 신중하고 진화적인 규제 전략을 반영한다. 이는 AI 기술의 잠재력을 극대화하면서도 공공의 신뢰와 안전을 보장하기 위한 영국의 선도적인 노력을 보여준다. 영국의 AI 규제 접근 방식은 기존 규제 기관을 통해 혁신 친화적이고 유연한 원칙 기반 규제 체계를 구축하는 것을 핵심으로 하되, 중앙 기능을 통해 규제 불일치 및 공백을 해소하고 국제적 상호 운용성을 확보하여 AI 거버넌스의 일관성과 적응성을 동시에 추구한다는 점에 중요한 시사점이 있다. 이러한 분산적 이행과 중앙 집중적 조정의 결합은 빠르게 변화하는 AI 환경에서 혁신을 저해하지 않으면서도 효과적으로 위험을 관리하려는 선진적인 규제 모델을 제시한다.