호주 AI 규제 프레임워크
호주는 유럽연합(EU)이나 일본과 달리 AI에 특화된 포괄적인 단일 법률(comprehensive AI Act)을 현재까지 채택하지 않고 있으며, AI 규제의 기본 철학을 기존 법적·규제적 프레임워크에 의존하는 접근 방식으로 유지하고 있다. 이는 초기 논의에서 고위험 AI에 대한 의무적 안전장치(mandatory guardrails) 도입 가능성을 시사했던 이전의 움직임에서 다소 후퇴한 것이며, 혁신을 저해하는 냉각 효과(chilling effect)를 최소화하고자 하는 생산성 위원회(productivity commission) 등의 견해가 반영된 결과로 풀이된다(Policy for the responsible use of AI in government - Version 2.0 | digital.gov.au 외 참고).
호주 정부는 AI 기술의 활용을 국가 경제 전반에 걸쳐 촉진하는 것을 목표로 국가 AI 계획(National AI Plan)을 공개했는데, 이 계획은 선진 데이터 센터 투자 유치, AI 기술 인력 양성, 그리고 AI 통합 가속화에 따른 공공 안전 확보라는 세 가지 핵심 축에 초점을 맞추고 있다. 규제적 접근에 있어서는, 기존의 강력한 법률 체계—호주 경쟁 및 소비자 법(ACCC), 회사법(ASIC), 데이터 보호 및 프라이버시 법(OAIC), 반차별 법, 온라인 안전 법 등—가 AI 관련 리스크를 관리하고 완화하는 기반이 될 것임을 명확히 했다. 이러한 접근 방식은 개별 정부 기관과 규제 당국이 각자의 분야에 특화된 AI 관련 피해를 식별하고 관리하는 일차적 책임을 유지하도록 한다.
그럼에도 불구하고, 정부는 AI가 야기하는 고유한 위험에 대응하기 위한 특정 조치들을 병행하고 있다. 2024년 9월에는 호주 정부 기관의 AI 안전하고 책임 있는 사용을 위한 '정부 AI 책임 사용 정책'(Policy for the Responsible Use of AI in Government)이 발효되었으며, 이는 공공 부문이 안전하고 책임감 있는 AI 사용의 모범이 되도록 하는 의무적 요구사항을 명시한다. 또한, 2024년 8월에는 호주 기업들의 안전하고 책임 있는 AI 사용을 지원하기 위해 10가지 '자발적 AI 안전 기준'(Voluntary AI Safety Standard)이 발표되었는데, 이는 EU AI 법의 의무 사항과 유사한 내용(책임 프로세스 구축, 위험 관리, 테스트, 투명성, 인간 통제 보장 등)을 포함하고 있으나, 법적 의무는 아니다.
2025년 12월 현재 호주 AI 규제의 가장 최신 동향은 다음과 같다. 첫째, 호주 정부는 2026년에 AI 안전 연구소(AI Safety Institute)를 설립할 것이라고 발표했으며, 이 연구소는 OpenAI의 ChatGPT 및 Google의 Gemini와 같은 생성형 AI(Generative AI) 도구가 제기하는 위험을 모니터링하고 대응 전략을 수립하는 데 중점을 둘 예정이다. 둘째, 정부는 기존 법률 체계가 AI의 고유한 위험에 대응하기에 부적합하다는 의견을 수렴하여, 고위험(high-risk) AI 환경에 대한 의무적 안전장치(mandatory guardrails) 도입을 위한 제안을 발표하고 지속적으로 협의하고 있다. 이 제안은 고위험 AI에 대해 테스트, 투명성, 그리고 명확한 책임 소재를 요구하는 내용을 담고 있으며, 이는 위험 기반 접근법을 따르되, 저위험 AI의 혁신은 최대한 저해하지 않겠다는 정부의 의도를 반영한다. 마지막으로, 호주는 데이터 및 디지털 장관 회의를 통해 정부 AI 보증을 위한 국가 프레임워크를 승인하는 등, 연방 정부와 주 정부가 공동으로 AI 거버넌스 원칙을 적용하고 있음을 명확히 했다.
캐나다 「AI 및 데이터 법안(AIDA)」과 AI 규제 프레임워크
캐나다는 유럽연합(EU)과 유사하게 AI에 특화된 포괄적인 법률을 마련하고 있으며, 이 법률은 「인공지능 및 데이터 법(Artificial Intelligence and Data Act, AIDA)」이다. AIDA는 2022년 6월 캐나다 혁신, 과학 및 산업부 장관에 의해 C-27 법안(Bill C-27)의 일부로 발의되었으나, 2025년 1월 의회 정회로 인해 자동 폐기된 상태이므로, 원래 형태대로 법안이 곧 통과될 가능성은 매우 낮다. 따라서 캐나다 연방 차원의 포괄적인 AI 규제 법률 제정은 상당히 불투명하며, 향후 정부의 정치적 우선순위에 따라 법안의 재상정 여부나 새로운 규제 프레임워크 도입이 결정될 것으로 보인다.
그럼에도 불구하고 참고적으로 살펴보면, AIDA의 주요 목표는 국제 표준에 부합하는 방식으로 국제 교역 및 상업적 활동과 관련된 AI 시스템을 규제하고, 유해한 결과의 위험을 관리함으로써 국민의 건강, 안전 및 기본권을 보호하는 데 있다(The Artificial Intelligence and Data Act (AIDA) | Government of Canada 외 참조). AIDA는 위험 기반 접근 방식(risk-based approach)을 채택하여 규제 대상을 특정 '고위험'(high-impact) AI 시스템에 집중한다. EU AI 법과 마찬가지로, 캐나다는 AI 시스템이 사회에 미치는 잠재적 피해 수준에 따라 차등적인 의무를 부과한다. 법안은 고위험으로 규정된 AI 시스템의 개발 및 배포에 대해 투명성, 안전성, 책임성에 관한 의무를 부과한다. 이는 특정 상황에서 재산 피해, 신체적 또는 심리적 피해, 그리고 인권 침해의 위험을 수반하는 시스템을 포함한다. 고위험 AI 시스템을 관리하는 기업은 위험 관리 정책을 확립하고 유지해야 하며, 이 시스템이 생성하는 유해한 결과(harmful outcome)를 완화해야 할 의무가 있다. 또한, 시스템의 작동 방식 및 용도에 대한 투명성 보고 의무도 부과된다. AIDA는 법의 이행과 집행을 담당할 AI 및 데이터 위원회(AI and Data Commissioner)를 지정하며, 이 위원회는 AI 시스템의 위험 평가, 고위험 정의 규정 개발, 그리고 위반 사항에 대한 조사 및 벌금 부과 등의 권한을 갖게 된다(The Artificial Intelligence and Data Act (AIDA) | Government of Canada 외 참조).
캐나다의 AI 규제 환경은 AIDA 외에도 기존의 강력한 프라이버시 법률과 연계하여 작동한다. AIDA가 통과를 기다리는 동안, 캐나다는 AIDA와 함께 C-27 법안에 포함된 「소비자 프라이버시 보호법(CPPA)」 및 「개인정보보호 및 데이터 재판소법」을 통해 AI의 핵심인 데이터 활용과 보호를 강화하고 있다. 특히, CPPA는 AI를 활용한 개인정보 처리 시 투명성 및 설명 가능성 의무를 명확히 하고 있다.
2025년 12월 현재의 최신 동향은 다음과 같다. 첫째, AIDA의 의회 통과 지연이 지속됨에 따라, 캐나다 정부는 법안 통과 이전에 고위험 AI에 대한 자발적 안전 조치 및 가이드라인을 먼저 발표하는 등, 규제 공백을 메우기 위한 유연한 조치를 병행하고 있다. 둘째, AIDA는 EU AI 법과 마찬가지로 범용 AI(GPAI) 모델이 제기하는 시스템적 위험을 어떻게 규제할지에 대한 구체적인 내용을 계속해서 보완하고 있으며, 국제적인 표준화 노력에 적극적으로 참여하고 있다. 셋째, AIDA는 법안 초안에 대한 광범위한 비판을 수렴하여 AI의 정의와 고위험 시스템의 범위를 명확히 하는 등, 법적 명확성과 집행 가능성을 높이는 방향으로 지속적으로 수정되고 있다. 캐나다의 이러한 AI 규제 접근은 미국과 EU의 중간 지점에서 혁신 촉진과 공공 안전 보호라는 두 마리 토끼를 잡으려는 실용적인 시도로 평가받는다.