- 인문학 고명(가니쉬)을 곁들인 AI기본법 플레이북 레시피 1
제1장 도구에서 주체로
1. 계산기에서 판단자로 — AI가 건너온 문턱
2026년 1월 22일, 대한민국에서 『인공지능 발전과 신뢰 기반 조성 등에 관한 기본법』(이하 ‘인공지능기본법’)이 시행되었다. 세계적으로 보면 EU AI Act에 이어 두 번째로 시행된 포괄적 AI 규제법이다. 그런데 이 법을 실무에 적용하기 전에, 한 가지 근본적인 질문을 먼저 던져볼 필요가 있다. 왜 인공지능이 법의 대상이 되어야 하는가?
이 질문은 단순한 호기심이 아니다. 변호사나 컴플라이언스 담당자가 이 법의 조문을 구체적 상황에 적용할 때, ‘이 법이 무엇을 지키려는 것인지’를 이해하고 있는지 여부는 해석의 품질을 결정적으로 좌우한다. 법률은 결국 가치판단의 체계이고, 가치를 이해하지 못하면 조문의 자구에 갇힌다.
이 질문에 답하기 위해 20세기 가장 중요한 정치철학자 중 한 사람인 한나 아렌트(Hannah Arendt)의 통찰을 빌려오고자 한다. 아렌트는 1958년 『인간의 조건(The Human Condition)』에서 인간의 활동을 세 가지 범주로 구분했다. 노동(labor), 작업(work), 그리고 행위(action)가 그것이다.
"노동은 생명 과정 자체에 종속된 활동이고, 작업은 세계에 지속적인 사물을 만드는 활동이며, 행위는 인간이 서로에게 말하고 함께 무엇을 시작하는 활동이다." — 한나 아렌트, 『인간의 조건』
노동(labor)은 생존을 위한 반복적 활동이다. 밥을 짓고, 청소하고, 빨래하는 것처럼 끝이 없이 반복되며, 그 결과물은 소비된다. 작업(work)은 세계에 지속적인 사물을 만드는 활동이다. 목수가 테이블을 만들고, 건축가가 건물을 설계하는 것처럼, 목적과 계획이 있고 결과물이 세계에 남는다. 그리고 행위(action)는 인간이 타인과 관계를 맺고, 판단하고, 새로운 것을 시작하는 활동이다. 재판에서 판결을 내리고, 채용 면접에서 사람을 선발하고, 정책을 결정하는 것이 여기에 해당한다.
이 구분이 중요한 이유는, AI의 발전 과정이 정확히 이 세 범주를 순차적으로 침범하고 있기 때문이다.
초기의 AI는 노동을 대체했다. 공장의 반복 작업을 자동화하고, 데이터를 분류하고, 스팸 메일을 필터링하는 수준이었다. 이 단계에서 AI는 사실상 계산기의 연장이었고, 법이 특별히 개입할 이유가 없었다. 계산기가 더 빨리 돌아간다고 해서 새로운 법을 만들 필요는 없으니까.
다음으로 AI는 작업의 영역에 진입했다. 글을 쓰고, 이미지를 생성하고, 코드를 작성하는 생성형 AI가 등장한 것이다. 이 단계에서는 저작권, 초상권 같은 기존 법률의 틀에서 긴장이 생겨났지만, 근본적으로 새로운 법을 요구하는 수준은 아니었다.
결정적인 전환점은 AI가 행위의 영역에 발을 들여놓은 순간이다. AI가 채용 여부를 결정하고, 대출 심사를 수행하고, 범죄 예측에 활용되고, 의료 진단을 보조하기 시작했을 때, AI는 더 이상 도구가 아니었다. 그것은 사람의 삶의 기회를 결정하는 판단의 주체가 되었다. 아렌트적 의미에서 ‘행위’의 영역에 AI가 진입한 것이다.
바로 이 지점에서 법이 개입할 수밖에 없게 된다. 누군가의 삶에 중대한 영향을 미치는 판단이 이루어질 때, 그 판단의 과정이 투명해야 하고, 공정해야 하고, 이의를 제기할 수 있어야 한다는 것은 법치주의의 가장 기본적인 요청이기 때문이다.
인공지능기본법 제1조가 “국민의 권익과 존엄성을 보호”하고 “인공지능의 안전성과 신뢰성을 확보”한다고 선언할 때, 그것은 단순한 선언이 아니다. AI가 인간의 행위 영역에 진입한 시대적 필연에 대한 응답이다.
2. 법의 두 바퀴 — 진흥과 규제의 균형
인공지능기본법은 이름부터 흥미롭다. ‘규제법’이 아니라 ‘기본법’이다. 법의 제목도 “인공지능 발전과 신뢰 기반 조성”으로, ‘발전’이 ‘신뢰’보다 앞에 나온다. 이것은 입법자의 의도적 선택이다.
이 법은 태생적으로 두 가지 목표를 동시에 추구한다. 하나는 인공지능 기술과 산업의 발전이고, 다른 하나는 국민의 권익과 존엄성 보호다.
법 제3조는 이 균형을 기본원칙으로 명시한다.
제3조(기본원칙 및 국가 등의 책무) ① 인공지능기술과 인공지능산업은 안전성과 신뢰성을 제고하여 국민의 삶의 질을 향상시키는 방향으로 발전되어야 한다.
② 영향받는 자는 인공지능의 최종결과 도출에 활용된 주요 기준 및 원리 등에 대하여 기술적·합리적으로 가능한 범위에서 명확하고 의미 있는 설명을 제공받을 수 있어야 한다.
제3조 제2항에 주목해보자. “기술적·합리적으로 가능한 범위에서”라는 단서는 이 법의 철학을 압축한다. 완벽한 설명을 요구하는 것이 아니라, 기술적으로 할 수 있는 범위 안에서 합리적인 수준의 설명을 제공하라는 것이다. 이것은 규제와 혁신 사이의 균형을 법문 자체에 내재화한 것이며, 실무자에게는 ‘어디까지 해야 하는가’의 기준점이 된다.
이 균형감각은 EU AI Act와 비교하면 더욱 명확해진다. EU AI Act는 위험 기반 접근으로 금지된 AI 관행을 명시하고, 고위험 AI에 대한 상세한 의무를 부과하며, 위반 시 매출액 기준 최대 3,500만 유로 또는 전 세계 매출액의 7%라는 강력한 제재를 규정한다. 반면 한국의 인공지능기본법은 과태료 상한이 3,000만 원이고, ‘금지’라는 개념 자체가 없다. 이것은 법 시행 초기에 규제와 혁신의 균형을 잡으려는 한국적 맥락의 선택이다.
실무적으로 이것이 의미하는 바는 명확하다. 이 법은 AI 사업자에게 ‘하지 마라’고 말하는 법이 아니라, ‘이렇게 하라’고 말하는 법이다. 투명하게 운영하고, 안전하게 관리하고, 위험을 평가하고, 문서화하라는 ‘절차적 의무’의 체계다.
다음 포스팅에서는 그 구체적인 내용을 하나씩 짚어가게 될 것이다.