OECD AI 원칙

인간 중심 가치를 기반으로 하는 글로벌 AI 거버넌스의 기준점

by 날개

OECD가 2019년에 채택하고 2024년에 업데이트된 OECD AI 원칙(OECD AI Principles)<https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449>에서는 신뢰할 수 있는 인공지능(trustworthy AI)의 설계, 개발, 배포 및 관리를 위한 최초의 정부 간 합의된 국제 표준임을 밝힌다. 이 원칙은 AI의 혁신적 잠재력을 증진하는 동시에, 인간 중심적인 접근 방식을 유지하고 AI 사용에 수반되는 위험을 관리하는 것을 목표로 하며, AI 거버넌스의 글로벌 논의에서 핵심적인 토대 역할을 수행한다. 이 원칙은 '가치 기반 원칙'(value-based principles)과 이를 실현하기 위한 정부 및 이해관계자들의 구체적인 '정책 권고'(policy recommendations)라는 두 축으로 구성되어 있는데, 이는 AI의 방향성을 설정하는 윤리적 기초와 함께, 이 기초를 실현하기 위한 구체적인 정책 실행 방안을 모두 제시한다는 점에서 매우 포괄적이다.


가치 기반 원칙은 신뢰할 수 있는 AI를 구축하기 위한 다섯 가지 상호 보완적인 기반을 정의하며, 이는 모든 AI 이해관계자가 따라야 할 핵심 목표인데, 첫째, AI 시스템은 사람들의 삶의 질을 향상하고, 포용적인 성장과 환경적으로 지속 가능한 발전 및 복지를 촉진하는 데 기여해야 하며, 둘째, AI 시스템은 법치, 인권, 민주적 가치를 포함한 인간 중심의 가치와 공정성을 존중해야 하며, 모든 단계에서 공정성을 보장해야 한다. 셋째, AI 시스템은 투명성 및 설명 가능성을 확보해야 하며, 그 작동 방식은 적절하게 설명될 수 있어야 하는데, 이는 이해관계자들이 AI 시스템의 결과를 이해하고, 필요할 경우 이의를 제기할 수 있는 기반을 제공한다. 넷째, AI 시스템은 수명 주기 전반에 걸쳐 기술적으로 견고성, 안전성 및 보안이 확보되도록 설계되어야 하며, 예상치 못한 위험과 오용에 대한 대비가 요구된다. 다섯째, AI 시스템의 기능과 결과에 대한 책임성(accountability)이 명확하게 지정되어야 하며, AI 시스템을 운영하는 개인이나 조직은 그 시스템이 원칙을 준수하도록 보장할 책임이 있다.


정책 권고는 정부와 공공 행위자들이 위 가치 기반 원칙을 효과적으로 이행하고 신뢰할 수 있는 AI 생태계를 조성하기 위해 취해야 할 다섯 가지 구체적인 조치를 제안하는데, 이에는 AI에 대한 공공 및 민간 투자를 촉진하고 개방적이며 경쟁적인 시장 환경을 조성하는 AI 혁신 환경 조성, 신뢰할 수 있는 AI 원칙을 실행하기 위한 적절한 규제 및 거버넌스 프레임워크 구축, AI 시대에 필요한 기술을 갖춘 인력을 양성하고 노동 시장 변화에 사회가 공평하게 적응하도록 돕는 인간 역량 개발 및 공평한 전환 촉진, AI 거버넌스 촉진을 위한 국가 간 협력 및 정보 공유를 강화하는 AI 국제 협력 강화, 그리고 공공 부문에서 이 원칙을 준수하여 AI의 책임 있는 관리를 선도해야 한다는 내용이 포함된다.


이 OECD AI 원칙은 AI 거버넌스의 글로벌 벤치마크로서 기능하며, EU AI 법을 포함한 다수의 국가 및 지역의 AI 법제와 정책 개발에 직접적인 영감을 제공했는데, 2024년부터 EU AI 법이 단계적으로 시행되고, 주요국들이 독자적인 AI 규제를 강화하는 2025년 12월 현재에도, OECD 원칙은 이 모든 규제들이 궁극적으로 지향해야 할 최소 공통분모(minimum common denominator) 역할을 한다. 특히 OECD는 2023년 G7 히로시마 AI 프로세스를 통해 OECD AI 원칙을 기반으로 한 G7 AI 코드 오브 컨덕트가 발표된 이후, 이 코드의 이행을 지원하고 범용 AI(GPAI) 모델의 특정 위험에 효과적으로 대응할 수 있도록 원칙의 적용 방식을 지속적으로 업데이트하고 있다. 또한, OECD는 OECD AI 정책 관측소(OECD AI Policy Observatory, OPSI)를 통해 회원국들의 AI 정책 및 규제 이행 현황을 모니터링하고 평가하는 활동을 강화하여, 다양한 형태의 AI 거버넌스 메커니즘이 OECD 원칙을 준수하고 있는지 확인하고 국제적인 상호 운용성(interoperability)을 확보하는 데 중점을 두고 있다. 이와 더불어, AI의 핵심 원료인 데이터 거버넌스와 고성능 컴퓨팅 자원의 윤리적 접근 및 활용에 대한 논의가 AI 시스템의 편향 문제가 데이터 접근의 불평등에서 비롯된다는 인식 아래 OECD AI 원칙의 연장선상에서 활발히 진행되고 있다.


결론적으로, OECD AI 원칙은 법적 구속력은 없지만, EU AI 법과 같은 강력한 법적 규제가 도입된 현재에도 모든 AI 규제와 진흥 정책이 준수해야 할 윤리적, 가치적 프레임워크를 제공하며, 국제적 협력과 규제 수렴의 기준점으로 그 중요성을 유지하고 있다.

작가의 이전글G7 AI 코드 오브 컨덕트