일본의 「AI 추진법」과 대만의 AI 규제 프레임워크
일본의 「AI 추진법」
일본은 2025년 6월 공포한 「인공지능(AI) 관련 기술의 연구개발과 활용 추진에 관한 법률」(AI 추진법)을 통해 AI를 규제한다. 이 법률은 AI 혁신을 촉진함과 동시에 AI 이용에 따른 잠재적 위험에 대응하기 위해 기존 법률 외에 AI에 특화된 새로운 법이 필요하다는 판단 하에 수립된 것인데, 이법의 의 핵심 목표는 일본을 'AI 개발·활용이 가장 쉬운 나라'로 만드는 것이며, AI 기술이 가진 경제 성장 및 사회 과제 해결의 가능성을 최대한 활용하면서도 윤리적·법적·사회적 위험에 적절히 대응해 국민 신뢰를 확보한다는 '진흥과 통제의 양립'을 동시 추구한다.
「AI 추진법」은 AI 연구개발 및 활용 촉진을 위한 기본 원칙으로 인간 중심, 투명성과 안전성 보장, 국제 협력 등의 중요한 이념을 내걸고 있으며, 이러한 철학은 향후 AI 정책 관련 가이드라인 수립의 주요 원칙에 적용될 예정이다. 이 법은 국가, 지방공공단체, 연구개발기관, 활용사업자 및 일본 국민 각각에 대한 책무(責務)를 규정하고 있는데, 특히 정부에게는 AI 연구개발 및 활용에 관한 기본 계획을 수립하고, 그 이행을 위한 재정 지원, 인재 육성, 국제 협력 등을 추진할 책무가 부여된다. 이 법은 AI에 특화된 최초의 포괄 법률이지만, 유럽연합(EU)의 AI 법처럼 고위험 AI에 대한 사전적·의무적 규제보다는 기존 법률(형법, 개인정보보호법 등)과 산업별 가이드라인을 통해 위험에 대응하는 '소프트 규제'(soft regulation) 기조를 유지하고 있다.
일본 AI 규제 환경의 가장 큰 특징은 규제보다 진흥에 무게를 둔 유연하고 적극적인 정책 기조이며, 이는 AI 학습의 핵심인 데이터 활용 환경에서 명확히 드러난다. 일본은 2018년 저작권법 개정을 통해 2019년부터 텍스트·데이터마이닝(TDM) 목적의 데이터 분석을 상업·비상업 목적을 불문하고 저작권자의 사전 동의 없이 폭넓게 허용했다. 이는 AI 학습 과정에서 저작물 활용의 합법성 문제를 선제적으로 해소하여 AI 혁신의 기반을 마련했으며, 현재는 문화청이 'AI와 저작권' 해석 지침 초안을 공개하는 등 후속 제도 정비를 통해 불법 데이터 접근에 대한 주의 의무와 책임 범위를 명확히 하는 단계에 있다. 다만, 채용 및 인사 분야, 공공기관에서의 생체인증 사용 등 잠재적 리스크가 높은 분야에 대해서는 기존 개인정보보호법 및 분야별 가이드라인을 통해 리스크를 줄이면서 실시하도록 권고하는 방식을 취하고 있다.
일본은 글로벌 AI 거버넌스 논의에 주도적으로 참여하고 있으며, 히로시마 AI 프로세스를 통해 G7 국제 지침 원칙과 고급 AI 시스템 개발 조직을 위한 국제 행동 강령을 발표하는 등, 국제 표준 정립에 큰 영향을 미치고 있다. 이러한 국제적 활동은 일본의 AI 전략이 글로벌 모델이 되는 AI 제도를 마련하려는 목표와 일치한다. 현재 일본은 AI 신법 공포 이후, 법의 기본 이념에 따라 AI 기본 계획을 수립하고, 기존 법률(개인정보보호법)의 3년 주기 검토를 통해 AI 개발 목적의 민감정보 활용 확대를 검토하는 등, 실질적인 규제 완화 및 데이터 활용 촉진 방안을 구체화하는 단계에 집중하고 있다. 일본의 이러한 소프트 규제 및 진흥 중심의 접근 방식은 AI 분야의 혁신을 도모하려는 다른 아시아 국가들에게 중요한 참고 사례가 되고 있다.
대만 AI 규제 프레임워크
대만은 유럽연합(EU)이나 일본처럼 AI에 특화된 포괄적인 단일 법률(comprehensive AI Act)을 제정하기보다는, 기존 법률과 산업별 규정을 기반으로 하는 유연하고 분산된 AI 거버넌스 접근 방식을 채택하고 있으며, 2025년 12월 현재에도 이러한 기조를 유지하고 있다(Taiwan: AI Policy and Regulation Overview - OECD AI Policy Observatory). 대만 정부는 AI 기술을 국가 경쟁력 강화의 핵심 동력으로 간주하고 있으며, 2017년부터 'AI 발전 행동 계획'(AI Development Action Plan) 등 일련의 국가 전략을 통해 AI 연구개발 및 산업화를 적극적으로 지원해 왔다.
대만의 AI 거버넌스 철학은 「인공지능 기본 윤리 규범(AI Basic Ethical Standards)」에 명시되어 있으며, 이는 AI 개발 및 활용이 인간의 존엄성, 다원성, 포용성, 지속가능성, 공정성, 책임성, 과학기술의 윤리라는 7가지 핵심 원칙을 준수하도록 요구한다. 이 규범은 법적 구속력을 갖지는 않지만, 정부 부처 및 산업별 가이드라인 제정의 기초를 제공한다.
대만의 규제 환경은 다음과 같은 특징을 가진다. 첫째, 진흥 우선 및 분산형 규제라는 점이다. 대만은 혁신을 저해하지 않기 위해 EU의 '고위험 AI 사전 규제' 모델을 따르지 않고, 산업 분야별 기존 규제 기관이 AI 관련 위험을 관리하도록 한다. 예컨대, 금융 AI는 금융 감독 위원회(FSC), 의료 AI는 위생복리부(MOHW)가 규제 권한을 행사한다. 둘째, 규제 샌드박스(regulatory sandbox) 활용한다는 점이다. 혁신적인 AI 기술 및 서비스가 시장에 진입하기 전, 규제를 일시적으로 완화한 환경에서 안전하게 테스트될 수 있도록 규제 샌드박스 제도가 도입되어 있는데, 이는 특히 금융 및 의료 AI 분야에서 두드러지게 나타난다. 셋째, 데이터 규제와의 연계가 되어 있다는 점인데, AI의 핵심인 데이터 활용에 대해서는 개인정보보호법(Personal Data Protection Act, PDPA)을 중심으로 규제하며, AI의 공정성과 투명성 관련 문제는 기존의 소비자 보호법(Consumer Protection Law) 및 공정 거래법을 통해 대응하도록 설계되어 있다.
2025년 12월 현재 대만 AI 규제 동향은 '생성형 AI(Generative AI)에 대한 대응'과 'AI 거버넌스 법제화 논의 심화'에 초점이 맞춰져 있다. 첫째, 대만 행정원(行政院)은 2024년 중반부터 생성형 AI 서비스의 개발 및 사용을 위한 '기본 지침'(basic guidelines)을 마련하여 공공 기관 및 민간 부문에 배포했다. 이 지침은 생성형 AI가 생성한 콘텐츠의 워터마킹(watermarking) 또는 출처 표기 의무를 포함하고 있으며, 이는 AI 시스템의 투명성과 허위 정보(misinformation) 확산 방지에 초점을 맞추고 있다. 둘째, 비록 단일 AI 법은 없으나, 행정원 국가발전위원회(NDC)를 중심으로 AI 윤리 및 규제에 대한 법제화 논의가 꾸준히 심화되고 있다. 대만 정부는 EU AI 법의 등장 이후, 고위험 AI에 대한 의무적 사전 평가 시스템 도입 등 규제 강도를 높이는 방안을 검토해 왔으며, 이는 추후 기존 법률의 개정이나 특정 분야 법률 제정으로 이어질 가능성을 시사한다. 대만의 이러한 접근 방식은 혁신과 윤리적 가치를 균형 있게 추구하며, 기술의 빠른 발전에 대응하기 위해 유연한 자율 규제와 분산형 규제를 선호하는 아시아 국가들의 주요 모델 중 하나로 평가받는다.