'어디에나 있지만, 어디에도 없다' 수많은 기업이 인공지능(AI)을 활용하고 있지만, AI는 기술일 뿐 정작 그 실체를 따지기 어려운 현실을 표현한 말입니다.
그 예로, 배달앱 기업 요기요는 AI 배차 시스템을 도입했지만, 라이더가 화장실을 가는 사이 콜을 받지 않았다고 등급을 하락시켰습니다. 회사 측은 정확한 이유를 설명하지 않았습니다. AI 면접을 본 구직자는 탈락 이유를 물었지만, 답은 AI가 결정했다는 답변이 돌아왔습니다. 기업은 AI에게 책임을 회피했습니다. 그러나 우리 법 체계는 이와 같은 AI를 둘러싼 이슈를 풀 수 없는 상황입니다.
이를 해결하기 위해 정필모 더불어민주당 의원은 '인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안'을 마련했습니다. 법안은 인간의 생명과 안전 및 존엄성 등 AI 특수 활용 분야의 사용 고지 의무와 사전 신고, 설명 요구권을 규정하고, 사업자의 윤리 정립에 대한 내용을 담았습니다.
정필모 의원실의 박철민 보좌관에게 해당 법의 목적과 취지, 핵심 내용에 대해 자세히 물었습니다.
Q. '인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안'이 가진 문제의식이 궁금하다.
인공지능은 정부가 추진하고 있는 디지털 뉴딜의 큰 축이다. 그런데 지금 우리나라에서 인공지능에 대해서 알고 있는 사람이 거의 없다고 보인다. 국회도, 정부도, 공공기관도 모두 피상적으로 아는 수준이다. 그나마 학계와 일부 개발자들이 알고 있지만, 이분들 역시 자신들의 전문 분야에만 이해하고 계신다. 아무것도 모르는 사람들이 잘 모르는 사람을 대상으로 규제들이 만들어지고 있다.
물론 기업들은 자신들이 사용하는 인공지능과 알고리즘에 대해서 사용법은 알고 있을 것이다. 하지만 그 원리에 대해 이해하는 이들은 드물다.
게다가 최근에는 기업이 AI를 활용해 새로운 사업을 한다고 했을 때, 자체적으로 개발하는 경우는 거의 없다. 대부분 인수합병이나 기술제휴 방식을 통해 다른 기업의 AI 엔진을 사 오는 것이다. AI라는 복잡하고 어려운 기술을 다들 쓰게 됐는데, 많은 사람들이 그 결과를 모르고 사용하고 있다.
Q. 그렇다면 법안의 목적은 무엇인가?
크게 두 가지로, 첫 번째는 어떻게 인공지능을 통해 우리나라에서 많은 창업이 이뤄지고 일자리가 만들어지도록 사업을 지원할 것이냐는 진흥을 위함이고, 두 번째는 아직 가보지 않은 길을 걸어가는 인공지능 산업에서 발생할 수 있는 여러 가지 문제들을 파악하고자 하는 것이다. 기존처럼 산업 진흥에만 집중한 법 체계로는 결과적으로 산업 진흥도 어렵고, 국민 권익 보호도 힘들다고 판단했다.
인공지능 육성과 신뢰 기반 조성을 동시에 구축해 인공지능 산업을 전반적으로 좀 더 불편이 없도록 만들고, 나아가 디지털 뉴딜의 성공을 뒷받침하고자 하는 법이라 할 수 있다.
AI 산업, 가보지 않은 길에서 발생할 수 있는 문제들을 파악하고자 하는 것
Q. 법안의 주요 내용으로 신고제, 사전 고지, 설명 요구권을 꼽을 수 있다. 자세히 설명해달라.
인공지능 산업은 무엇이 문제인지도 모르고 넘어가는 경우가 많다. 그래서 신고제로 했다. 유보적 신고제라고 할 수 있는데, 정부가 인공지능은 다루는 사람은 누구인지, 인공지능의 조직도, 장비를 무엇인지, 서버는 무엇인지, 최소한의 인공지능 서비스를 할 수 있는지 확인하는 것이다.
당연히 기업이 기준에 부합한다면, 신고를 받아줘야 한다. 이렇게 시설, 장비, 장소를 갖췄는지를 확인하는 것은 규제를 위한 게 아니라, 통계를 위한 것이다.
사전 고지 역시 마찬가지다. 적용 대상이 모든 인공지능 사업자가 아닌, 8개의 특수 활용 인공지능 분야인데, 이와 유사하게 EU의 GDPR에서는 인공지능이 위험하기 때문에 제어해야 한다는 시각이 반영된 '고위험 인공지능'이라고 표현한다.
하지만 우리 법은 8개의 특수 활용 분야의 인공지능은 국민에게 영향을 미치니까 '어떻게 AI가 쓰이는지 미리 알려주라'는 의미가 크다. 즉, 인공지능 활용처에 대한 물리적 구분의 취지라 할 수 있다.
Q. 설명 요구권은 어떻게 쓰일 수 있나?
8개의 특수 활용 분야 중 '민사 결정'과 '국가 활용'은 AI의 최종 결정을 금지하고 있다. 배달앱 요기요 사례로 설명하면, AI 시스템이 라이더의 등급을 변경했을 때, 요기요가 그 결정을 AI의 책임으로 미룰 수 없게 하자는 것이다.
AI는 최종 결정하지 않게 함으로써, 기업이 AI의 판단을 참고 삼아 책임지게 하는 것이다. 그래야 라이더는 결정이 불합리할 경우, 설명을 요구할 수 있다.
또 '국가 활용' 분야는 영향 범위가 넓고 국민 전반에 미치기 때문에 더 중요하다. 국민은 AI가 활용되는 공공 제도나 서비스에 있어, '이게 AI가 활용된 것이구나'를 알아야만 민원이 불합리하면 해당 기관에 설명해달라고 할 수 있다. 나아가 기업의 책임을 AI에게 미루지 않게 하는 것이다.
통계 조사, 사례 수집, 자율 윤리 지키도록 동기를 유발하는 법
Q. 하지만 규제라는 측면에서 기업들의 반대가 예상된다.
기술 발전의 속도가 빠르기 때문에 법률로는 규정할 수도 없고, 규정해서도 안된다고 본다. 기술 발전을 법률의 속도가 따라갈 수 없기 때문에, 정부로 하여금 기술 발전으로 따라갈 수 있도록 위임 범위에 대해서 열었다. 이를 통해 정부가 하위 법령이나 지침을 통해 사례를 제시해야 한다고 생각한다.
Q. 이외에도 인공지능에 대한 기준과 표준화, 폐업 명령까지 가능한 벌칙과 과태료에 대한 부분도 우려가 나왔다.
먼저 인공지능의 기준과 표준화 부분은 일반적인 법체계에서도 대부분 포함됐다. 본래는 정부가 표준화해서 고시하라는 의미가 아니라, 표준을 누가 정하느냐에 따라 글로벌 선두 그룹이 되어 부가가치를 키울 수 있기 때문에 지원하고자 하는 것이다.
게다가 ICT 기술 관련 표준화 작업은 대부분 협회를 통해 민간에서 정하고 있고, 정부는 지원하는 형태로 진행하고 있기에 과한 우려다.
또 처벌 규정도 없기에 강력한 변화를 요구하는 법이 전혀 아니다. 통계를 조사하고 사례를 수집하고 자율적인 윤리기준을 지키도록 동기를 유발하는 법이다. 폐업 명령의 경우도 기업이 행정처분의 반해 불이행하고, 해당 서비스를 지속했을 때 마지막에 내리는 처분이다. 설령 어떤 기업이 정부의 폐업 명령을 받더라도 소송 치르고 법원 판결에 따른다. 기업의 행동을 발생시키는 최소한의 장치다.
Q. '민간자율인공지능윤리위원회'의 설치와 인증에 관한 규정도 있다.
인공지능에 대해 공공과 기업이 잘 아는 것 같지만, 실제로는 모르기 때문에 만든 게 '민간자율인공지능윤리위원회'다. 인공지능 기술 연구 및 개발에 있어, 윤리 원칙과 안전 및 인권 침해를 자율적으로 기관이나 단체가 스스로 확인하도록 하는 제도라고 할 수 있다.
정부는 해당 기업이 위원회 구성 요건이나 형식적인 회의만 하고 끝내지 않는지 확인하고 이를 인증하는 정도다. 윤리 기준을 잘 지키는지 확인하는 게 아니다. 게다가 위원회의 설치는 재량행위이며, 평가와 인증 대상 역시 위원회에 국한되며, 신청할 경우에만 진행되기 때문에 민간의 자율성을 존중했다.
Q. 향후 법률안 논의는 어떻게 진행되나?
법률안은 공청회를 통해 받은 각계 전문가와 온라인을 통한 의견과 함께 과방위에 제출되고, 이후 진행되는 전문위원의 법률안 검토 보고는 향후 법안 심의에 참고될 예정이다.
지난해부터 6개월 이상 준비한 법률안이다. 만약 법률안이 국회 입법으로 통과된다면, 인공지능 관련 법률로써는 세계 최초다. EU의 GDPR은 개인정보에 관한 규약이고, 스페인은 행정 명령, 미국에서는 주법에 불과하다.
그만큼 중요하고 필요하기에 '인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안' 명칭과 설명 요구권을 제외하고는 향후 충분히 논의할 수 있다.