우리나라 알고리즘 규제 환경의 전환점

인공지능(AI)기본법 시행을 목전에 두고

by 날개

대한민국의 알고리즘 규제 환경은 서구 국가들과는 다른 고유한 법적 경로를 걸어왔으며, 현재는 기존 법률의 사후적(ex-post) 집행력과 곧 시행될 '인공지능산업 진흥 및 신뢰 기반 조성에 관한 기본법(인공지능기본법)'의 사전적(ex-ante) 원칙 설정이라는 두 축을 중심으로 재편되고 있다. 이 법은 2025년 1월 21일 법률 제20676호로 제정되었으며, 2026년 1월 22일 시행을 앞두고 있다.


기존 한국의 알고리즘 규제는 주로 개인정보 보호법과 공정거래법을 통해 이루어지는 분산적이고 부문별(sectoral)인 방식이었다. 이 중 개인의 권익 보호를 위한 핵심 장치는 2020년 8월 5일 개정된 '개인정보 보호법' 제37조의2(자동화된 결정에 대한 정보주체의 권리)이다. 이 조항은 알고리즘이 전적으로 관여한 결정(예컨대, 금융 심사, 채용 결과 등)으로 인해 정보주체의 권리나 의무에 중대한 영향이 발생하는 경우, 정보주체가 해당 결정에 대한 설명을 요구하고 이의를 제기할 수 있도록 보장한다. 이는 플랫폼의 알고리즘적 결정에 대한 최소한의 투명성 및 설명책임(accountability)을 법적으로 강제하는 것으로, 유럽연합(EU)의 GDPR 제22조가 제공하는 기본권 보호와 궤를 같이하는 가장 기본적인 알고리즘 규제론적 기능이다.


시장 경쟁의 공정성을 확보하고 거대 플랫폼의 알고리즘 남용을 견제하는 역할은 공정거래법이 담당해왔다. 공정거래위원회는 동법 제45조(불공정거래행위의 금지) 등을 근거로 알고리즘을 이용한 반경쟁적 행위를 강력하게 규율한다. 구체적으로, 플랫폼 기업이 검색 노출 순위 알고리즘을 조작하여 자사 제품이나 서비스(self-preferencing)를 부당하게 우대하거나, 경쟁 사업자를 차별하고 이들의 사업 활동을 부당하게 방해하는 행위 등이 공정위의 주요 제재 대상이 되어왔다. 이는 알고리즘이 시장에서 초래하는 실질적인 경쟁 제한 행위에 대한 사후적(ex-post) 개입 및 제재 기능을 강력하게 수행하는 것이다. 그러나 이러한 사후적 집행 방식은 알고리즘이 내재적으로 갖고 있는 데이터 독점이나 은밀한 담합의 가능성을 사전에 예방하는 데는 한계가 있으며, 이러한 이유로 '온라인 플랫폼 중개거래의 공정화에 관한 법률안'(온플법) 등 알고리즘 투명성 의무를 직접 부과하려던 입법 시도가 있었으나 최종 통과에 이르지 못했다.


이러한 기존 법률의 한계를 극복하고 AI 시대에 부합하는 포괄적인 규제 틀을 마련하려는 시도가 바로 인공지능기본법이다. 이 법은 EU AI Act와 달리 '선(先) 진흥, 후(後) 규제'의 기조 아래, AI 산업 진흥을 우선 목표로 설정하고 신뢰 기반 조성을 위한 최소한의 틀을 제시한다. 법률 제6조(기본원칙)는 인간 존엄성 존중, 투명성, 공정성, 책임성을 AI 발전의 기본 원칙으로 명시하여 윤리적 표준을 법제화하였다.


특히, 인공지능기본법은 AI 규제론의 위험 기반 접근의 토대를 마련한다. 제19조(고위험 인공지능의 신뢰 확보)는 국민의 생명·안전·권익 등에 중대한 영향을 미치는 고위험 인공지능에 대해 다른 AI와 차별화된 신뢰 확보 의무 및 기준을 적용할 수 있는 근거를 마련한다. 이는 기존의 사후적 제재를 넘어, AI 시스템의 설계 및 운영 단계부터 사전적 책임 기반 조성을 요구하는 법적 근거가 된다. 아울러 제21조(이의 제기 등)는 이용자가 AI 서비스로 인해 권익 침해 발생 시 이의제기 및 설명 요구를 할 수 있는 권리를 부여하여, 알고리즘적 결정에 대한 개인의 통제권을 기존 개인정보보호법의 영역을 넘어 AI 서비스 전반으로 확장하려 한다.


이 외에도 대한민국은 부문별로 알고리즘을 규율하고 있다. '정보통신망 이용촉진 및 정보보호 등에 관한 법률(정보통신망법)'은 플랫폼의 유해 정보 모니터링 의무 등을 규정하며 알고리즘 필터링의 책임을 다루고 있고, 금융 분야에서는 '금융소비자 보호에 관한 법률'을 기반으로 금융회사들이 대출 심사 등에 AI를 사용할 때 설명 가능성, 공정성, 데이터 편향 문제를 관리하도록 행정 지침을 통해 유도하고 있다. 또한 정부는 법적 규제와 별도로 '사람 중심의 인공지능 윤리 기준'을 제시하며 알고리즘의 공정성, 책임성 확보를 위한 자율 규제 모델의 확산을 지원하고 있다.


종합적으로 볼 때, 대한민국 알고리즘 규제는 개인정보보호법의 개인 권리 강화, 공정거래법의 시장 집행력 확보, 그리고 인공지능기본법의 신뢰 기반 조성 및 위험 기반 규제 토대 마련이라는 3중 구조로 진화하고 있다. 2026년 1월 22일 인공지능기본법의 시행 이후, 이 법률이 자율 규제 중심을 유지할지, 아니면 하위 법령(시행령 및 시행규칙)을 통해 EU AI Act와 유사한 데이터 품질, 투명성, 인간 감독 등의 구체적이고 강력한 사전적 의무를 부과할지가 향후 한국 AI 규제의 실질적인 강도와 방향을 결정짓는 주요 과제가 될 것이다.

작가의 이전글유럽연합과 미국의 알고리즘 규제 비교