중국 AI 규제 프레임워크
중국은 서방 국가들과 달리, 단일의 포괄적인 'AI 법'을 제정하기보다는 AI 시스템의 위험 및 응용 분야에 따라 개별적인 규제와 행정 조치를 연속적으로 발표하여 규제 프레임워크를 구축해 왔다(China AI Policy and Regulation Overview - OECD AI Policy Observatory 외 참고). 이는 '부분적 입법'(sectoral legislation)을 통해 AI 산업의 혁신을 저해하지 않으면서도, 사회 통제와 국가 안보를 최우선으로 보호하려는 중국 특유의 접근 방식을 반영한다. 2025년 12월 현재, 중국은 이미 여러 AI 관련 규제를 시행 중이며, 특히 생성형 AI와 알고리즘 추천에 대한 세계에서 가장 구체적이고 엄격한 규정을 가지고 있다.
중국의 AI 규제는 주로 '국가인터넷정보판공실'(CAC, Cyberspace Administration of China)을 중심으로 이루어지며, 다음 세 가지 핵심 규정이 중심축을 이룬다. 먼저, '인터넷 정보 서비스 알고리즘 추천 관리 규정'(Algorithm Recommendation Regulation)은 2022년 3월부터 시행되었는데, 이 규정은 플랫폼 사업자가 알고리즘을 이용하여 사용자에게 콘텐츠를 추천할 때 지켜야 할 의무를 명시한다. 주요 내용은 알고리즘의 투명성, 사용자 선택권 보장(알고리즘 미사용 옵션 제공), 허위 정보 확산 방지, 청소년 보호 등이며, 알고리즘을 통한 부당한 가격 차별(big data ditching)을 금지하는 등 상업적 남용을 엄격히 통제한다. 둘째, 인터넷 정보 서비스 생성형 AI 관리 잠정 조치(generative AI regulation)는 2023년 8월부터 시행되었는데, 이 규정은 생성형 AI(ChatGPT 유사 서비스)에 특화된 세계 최초의 규제 중 하나이다. 이 조치는 AI가 생성한 콘텐츠가 사회주의 핵심 가치에 부합하도록 요구하며, 불법 콘텐츠 생성 방지, 학습 데이터의 합법성 보장, 그리고 딥페이크(deepfake) 콘텐츠에 대한 명확한 식별 표시를 의무화한다. 이는 사전 검열 및 통제 성격이 강하다는 특징을 가진다. 셋째, 데이터 보안법 및 개인정보보호법(DSL & PIPL) 2021년에 제정 및 시행되었는데, AI 시스템의 기반이 되는 데이터의 수집, 처리, 국외 전송에 대하여 엄격하게 규제한다. 특히, 중요 데이터의 국외 전송 제한 및 국경 간 데이터 전송 보안 평가 의무는 AI 기업의 글로벌 운영에 중대한 영향을 미친다.
중국 AI 규제의 특징은 '국가 안보 및 사회 통제'를 최우선 목표로 하면서도, 국제적인 추세에 맞춰 윤리 원칙을 제시한다는 점이다. CAC는 AI 규정 위반 시 서비스 중단, 벌금 부과, 형사 처벌 등 강력하고 즉각적인 행정 처분을 내릴 수 있는 권한을 가지고 있으며, 이는 규정의 실효성을 높이는 핵심 요인이다. 중국 과학기술부는 2021년 「차세대 인공지능 윤리 규범(New Generation AI Ethics Code)」을 발표하여 AI 개발이 사회적 윤리와 법규를 준수하고, 공익을 증진해야 함을 강조하고 있다.
2025년 12월 현재 중국 AI 규제의 가장 최신 동향은 포괄적 AI 법 제정 논의의 심화와 실행 세칙의 구체화이다. 첫째, 중국은 현재 AI에 대한 포괄적인 '법률(法)' 제정을 검토하고 있으며, 이는 기존의 '잠정 조치(조례, 暂行规定)' 형태의 규정을 상위 법률로 통합하여 AI 규제 시스템을 완성하려는 움직임을 보인다. 둘째, 산업별 AI 가이드라인이 계속해서 세분화되고 있다. 특히 자율주행, 의료 등 고위험 분야에 대해서는 별도의 기술 표준 및 안전 요구 사항이 강화되는 추세이며, 이는 EU의 위험 기반 접근법과 유사하게 고위험 분야에 대한 사전 인증 및 검증을 요구할 가능성을 시사한다. 셋째, 중국 정부는 자국 내에서 개발된 대규모 AI 모델(large language models)에 대한 안전 심사 및 등록 시스템을 의무화하고 있으며, 이 시스템은 모델의 배포 전에 국가 통제 기관의 승인을 받도록 요구하여 기술 혁신과 정치적 안정 사이의 균형을 유지하려 한다.
인도 AI 규제 프레임워크
인도는 유럽연합(EU)과 같은 별도의 포괄적인 단일 AI 법(comprehensive AI Act)을 제정하는 대신, 기존의 디지털 거버넌스 프레임워크와 새로운 기술 중립적 법률을 통해 AI 리스크를 관리하는 접근 방식을 채택하고 있다. 2025년 12월 현재, 인도의 AI 규제 환경은 혁신 촉진을 최우선 목표로 하며, 기술 성장을 저해하지 않는 선에서 AI 활용으로 인한 사용자 피해와 알고리즘의 편향성 문제를 해결하는 데 중점을 두고 있다(India AI Policy and Regulation Overview - OECD AI Policy Observatory 외 참고).
인도의 AI 거버넌스 구조는 주로 전자정보기술부(MeitY)가 주도하며, AI 규제는 다음의 두 가지 핵심 법률을 중심으로 이루어진다. 첫째, 디지털 개인정보 보호법(Digital Personal Data Protection Act, DPDP Act)은 2023년에 통과된 법률로, 인도에서 AI 시스템에 대한 규제적 기초를 제공한다. DPDP Act는 AI 개발 및 활용 과정에서 발생하는 개인 데이터 처리를 엄격히 규제하며, 개인 데이터 주체에게 자신의 데이터가 어떻게 처리되고 있는지에 대한 투명성과 동의를 요구한다. 특히, 이 법은 AI 시스템의 편향성(bias)을 유발할 수 있는 데이터 처리 문제를 간접적으로 통제하며, 데이터 주체의 권리 보호를 통해 AI 윤리 문제를 관리하는 핵심 도구로 기능한다. 다음으로 현재 논의 중인 법안으로서, '디지털 인도 법안'(Digital India Act, DIA)이 있다. 이 법안은 기존의 'IT 법'(Information Technology Act, 2000)을 대체할 것으로 보이는데, AI, 블록체인 등 새로운 디지털 기술을 포괄하는 기술 중립적인 규제 프레임워크를 목표로 한다. DIA는 AI 시스템의 책임성(accountability)과 투명성에 대한 광범위한 원칙을 담을 것으로 예상되며, 이는 AI 시스템이 유발하는 사회적 피해에 대한 법적 책임 소재를 명확히 하는 데 기여하는 것을 목적으로 한다.
인도 정부는 AI를 국가 경제 성장의 동력으로 보고, 'AI for All'이라는 비전을 통해 AI 기술의 대중화와 혁신을 극대화하는 데 중점을 둔다. 인도 정부는 '책임 있는 AI를 위한 국가 전략'(national strategy for AI)을 통해 AI 연구개발 및 활용을 장려하며, 'AI 미션'(AI Mission)을 출범시켜 연구 개발 및 스타트업 생태계에 대한 투자를 집중하고 있다. 또한, 인도는 EU의 '위험 기반 사전 규제'를 채택하지 않고, 사후 평가 및 행정적 조치를 통한 경량 규제(light-touch regulation) 접근 방식을 선호하는데, 이는 혁신 초기 단계에서 기업의 부담을 최소화하여 AI 기술의 시장 진입을 가속화하려는 의도이다.
2025년 12월 현재 인도 AI 규제의 가장 최신 동향은 AI의 안전 및 유해성에 대한 직접적인 논의의 심화이다.
첫째, 인도 전자정보기술부는 생성형 AI(generative AI)를 포함한 대규모 언어 모델(LLMs)의 확산에 따른 허위 정보(deepfakes) 및 편향성 문제를 심각하게 인식하고, 이에 대한 윤리 및 안전 가이드라인을 개발하고 있다. 특히, '불법 콘텐츠'의 정의와 AI 시스템의 '확인 가능한 출력'(verifiable output) 의무에 대한 논의가 활발히 진행 중이다. 둘째, 디지털 인도 법안(DIA)의 입법 과정에서 AI 시스템의 책임성(accountability)에 대한 구체적인 조항이 포함될 가능성이 높아지고 있다. 이는 AI로 인한 소비자 피해 발생 시 플랫폼이나 개발자의 책임 범위를 명확히 하여, 기술 중립적 법률을 통해 AI 리스크를 통제하려는 정부의 의지를 반영한다. 셋째, 인도 정부는 공공 부문에서 AI 시스템을 도입할 때 'AI 윤리 원칙' 준수를 의무화하는 정책을 추진하고 있으며, 이는 정부 자체가 AI의 책임 있는 활용을 선도하려는 노력의 일환이다.