인권이 전제되지 않은 기술은 미래가 될 수 없다

by 박지현

대한민국은 세계 어느 국가보다 빠르게 개발도상국의 허물을 벗고 선진국 대열에 합류했다. 우리는 ‘빨리빨리’ 정신으로 압축 성장을 이루어냈으나, 그 눈부신 속도의 이면에는 늘 짙은 그림자가 드리워져 있었다. 효율과 성장에 밀려 약자의 희생을 당연시했던 과거의 실수를, 우리는 AI 시대의 문턱에서 또다시 반복하려 하고 있다.


2026년 1월, 대한민국은 세계 최초로 ‘AI 기본법’을 시행했다. 그러나 ‘AI 헌법’이라고도 불리는 이 법안의 속내를 들여다보면 정작 헌법의 본질인 ‘인간의 기본권 보호’는 찾아보기 어렵다. 기술 강국으로 도약하기 위한 기업 지원과 산업 육성 내용 위주로 자리 잡고 있을 뿐이다.


현재 시행된 법안의 골자는 국가 AI전략위원회 구축, 학습 데이터 제공, 해외 진출 지원 등 산업 활성화에 집중되어 있다. 규제의 칼날은 오직 제품을 제공하는 ‘사업자’에게만 향해 있으며, 그마저도 ‘표시 의무(워터마크)’라는 최소한의 형식에 그친다.


문제는 이 장치가 무력하다는 점이다. 크리에이터 개인이 생성하는 콘텐츠를 규제할 방안은 전무하며, 워터마크 제거 기술 또한 고도화되고 있다. 텔레그램 등 폐쇄적 플랫폼에서 일상이 파괴된 딥페이크 피해자들에게 현재의 법은 "기업이 표시 의무를 다했으니 책임이 없다"는 면죄부가 될 뿐이다. 미성년자와 취약계층을 위한 별도의 보호 의무가 명시되지 않은 점은 이 법의 가장 뼈아픈 실책이다.


우리 법이 규정한 의무 위반 시 과태료는 최대 3,000만 원이다. 글로벌 기준과 비교하면 이는 더욱 초라해진다. 유럽연합(EU)의 AI 법은 인권 침해 시 전 세계 연간 매출액의 최대 7% 혹은 3,500만 유로(약 520억 원) 중 높은 금액을 과징금으로 부과한다. 수조 원의 매출을 올리는 빅테크 기업들에게 3,000만 원은 '벌금'이 아니라 성장을 위해 지불하는 값싼 '통행료' 수준에 불과하다.


우리는 기술이 출시된 후 피해자를 구제하는 사후약방문식 처방에서 벗어나야 한다. 개발 단계부터 인권 침해 가능성을 차단하는 ‘설계에 의한 안전’이 법적 의무가 되어야 한다.


특히 무엇이 ‘고영향 AI’인지에 대한 정의부터 명확해야 한다. 채용 알고리즘이 특정 성별을 배제하거나 금융 AI가 청년의 신용을 자의적으로 평가할 때, 시민들은 그 결과에 대해 설명받고 이의를 제기할 권리가 있다. 알고리즘 뒤에 숨은 기업들에게 투명한 정보 공개와 입증 책임을 강력히 요구해야 하는 이유다.


인권이 전제되지 않은 기술은 미래가 될 수 없다. 차별과 폭력이 만연한 구조 속에서 통제 없는 AI는 그 폭력을 무한히 복제하고 증폭시키는 가속기일 뿐이다.


AI 기본법이 만들어진 것은 환영할 일이지만, 그 빈틈을 촘촘히 매워야 한다. 우선 처벌 수위를 매출액 대비 과징금 체계로 전환해 기업에 실질적인 책임을 지우고, 플랫폼 사업자의 관리 책임을 강제해야 한다.


2026년, 우리가 기억해야 할 것은 AI의 화려한 성취가 아니라 그 어떤 시민도 기술의 그늘 아래 소외되지 않도록 하겠다는 민주주의의 약속이어야 한다. 인권은 혁신의 걸림돌이 아니라, 우리가 기술의 주권을 잃지 않도록 지켜주는 유일한 나침반이기 때문이다.

작가의 이전글당신은 ‘야동‘을 본 적이 있는가