EU ‘AI 표시 및 투명성 실천 강령’의 분석-시사점

by 날개

2026년 8월 유럽연합(EU) 인공지능법(AI Act)의 전면 시행을 앞두고, 인공지능이 생성한 콘텐츠의 식별과 투명성을 확보하기 위한 기술적·실무적 이행 지침인 ‘AI 표시 및 투명성 실천 강령(Code of Practice on Transparency of AI-Generated Content)’의 윤곽이 드러나고 있다. EU AI 사무국은 2025년 12월 17일 발표된 1차 초안을 시작으로, 2026년 3월 2차 초안을 거쳐 같은 해 6월 최종안을 확정한다는 긴박한 입법 일정을 소화 중이다. 본 강령은 AI Act 제50조에 명시된 투명성 의무를 구체화하는 것으로, 무분별한 딥페이크와 AI 생성 정보가 정보 생태계를 교란하는 것을 막기 위한 전 세계 최초의 구체적인 행동 규범이라는 점에서 그 함의가 깊다.


본 강령의 핵심은 기술 제공자(Provider)와 서비스 배포자(Deployer)에게 각각 차별화된 의무를 부과하여 책임의 연쇄 고리를 완성하는 데 있다. 우선 텍스트, 이미지, 오디오, 영상 등 인공적인 합성을 수행하는 AI 시스템 제공자는 자사 모델의 출력물에 기계 판독이 가능한 형태의 워터마크나 메타데이터를 반드시 삽입해야 한다. 이는 이른바 ‘표시 및 탐지(Mark and Detect)’ 원칙으로, 단순히 눈에 보이는 라벨을 붙이는 수준을 넘어 기술적 수단을 통해 콘텐츠의 출처를 추적할 수 있도록 설계 단계부터 투명성을 내재화할 것을 요구한다. 특히 이러한 기술적 솔루션은 상호 운용성과 견고성을 갖춰야 하며, AI 모델의 성능을 저해하지 않으면서도 위·변조에 강한 복원력을 가져야 함을 명시하고 있다.


서비스를 실제로 운영하는 배포자 측면에서는 ‘고지 의무(Disclosure Duty)’가 한층 강화된다. 실제 인물이나 장소, 사건 등을 정교하게 흉내 낸 딥페이크 콘텐츠의 경우, 사용자가 이를 허구임을 즉각 인지할 수 있도록 명확하고 가시적인 표시를 해야 한다. 특히 공익과 직결된 사안에 대해 AI가 생성한 텍스트를 게시할 때는 원칙적으로 AI 생성물임을 밝혀야 하며, 오직 인간의 편집적 책임과 검토를 거친 경우에만 예외가 인정된다. 이는 선거철 허위 정보 확산이나 사회적 혼란을 야기할 수 있는 지능형 기만행위를 사전에 차단하려는 강력한 규제 의지로 읽힌다.


사용자 경험(UX) 측면에서 주목할 만한 대목은 EU 전역에 통용될 ‘공통 아이콘(Common Icon)’과 표준화된 용어 체계(Taxonomy)의 도입이다. 플랫폼마다 제각각이었던 AI 표시 방식을 하나로 통일하여 사용자가 디지털 환경 어디에서나 동일한 시각적 기호만으로 AI의 개입 여부를 판단할 수 있도록 하려는 것이다. EU는 국가별 언어 차이를 고려하여 과도기적으로 ‘AI’, ‘KI’, ‘IA’와 같은 약어를 활용하되, 궁극적으로는 직관적인 아이콘 시스템을 정착시켜 디지털 접근성을 높이고 정보의 비대칭성을 해소한다는 계획을 세우고 있다.


규제 이행의 강제성을 담보하기 위한 처벌 규정은 매우 엄중하다. 본 강령은 표면적으로는 자율적인 준수 도구(Voluntary Tool)의 형식을 띠고 있으나, 사실상 AI Act의 투명성 의무 이행 여부를 판단하는 핵심 잣대가 된다. 만약 기업이 정해진 투명성 고지 의무를 위반할 경우, 법 제99조에 따라 최대 1,500만 유로(약 220억 원) 또는 전 세계 연간 매출액의 3% 중 더 높은 금액의 과징금을 부과받을 수 있다. 이는 단순한 행정 지침을 넘어 기업의 존폐를 결정지을 수 있는 실질적인 법적 구속력을 가진 가이드라인으로 작용하게 됨을 의미한다.


이러한 EU의 행보는 대한민국 AI 법제와 기업들에게 중대한 시사점을 던진다. 이미 2026년 1월부터 인공지능기본법을 시행하고 있는 우리나라는 기술적 세부 규격보다는 원칙 중심의 입법을 우선시해 왔다. 그러나 EU의 실천 강령이 6월에 최종 확정되면, 이는 곧 글로벌 시장에서 통용되는 사실상의 ‘품질 인증’ 규격이 될 가능성이 농후하다. 국내 기업들이 독자적인 워터마크 기술이나 라벨링 방식을 고집할 경우, 유럽 시장 진출 시 기술적 장벽에 부딪히거나 막대한 과징금 리스크에 직면할 수 있다.


따라서 국내 정책 당국은 인공지능기본법 및 공공 AI법의 세부 시행 지침을 마련함에 있어 EU의 실천 강령과 기술적 호환성을 확보하는 데 주력해야 한다. 특히 범정부 생성형 AI 플랫폼을 구축하는 과정에서 EU가 제시하는 메타데이터 표준과 공통 아이콘 시스템을 선제적으로 벤치마킹한다면, 공공 행정의 투명성을 세계적 수준으로 높이는 동시에 국내 AI 기업들의 글로벌 컴플라이언스 역량을 강화하는 일석이조의 효과를 거둘 수 있을 것이다.

작가의 이전글대한민국 인공지능(AI) 법제 지형도