AI 강국을 향해 뚜벅뚜벅 힘찬 걸음을 걸으려면
AI 규제는 당신에게 영향을 미친다
한국에는 수많은 규제가 있다. 규제는 대개 분노와 좌절의 대상으로 묘사된다. ‘규제가 발목을 잡는다’, ‘규제 때문에 못살겠다’는 볼 멘 소리들은 항상 기사 제목 한 두 개 정도는 장식한다. 그렇기에 ‘규제'라는 말을 떠올리기만 해도 스트레스를 받는다. 클릭과 스크롤을 멈추고 바로 다른 주제로 관심을 돌리게 된다. 나의 일상을 방해하고 나의 사업이나 영리 활동, 이해관계에 영향을 줄 정도의 거리로 다가오지 않는 이상 외면하기 일쑤다.
AI 규제는 다르다. 이 기술에 대한 규제는 당신의 삶 가까운 곳에 영향을 미칠 가능성이 크다. 관심을 가질만하다. 이미 이 기술이 빠른 속도로 삶 구석구석에 침투 중이기 때문이다. 한국은 소문난 얼리 어답터 시장이다. 신기술 사용에 망설임이 적고 오히려 서로 먼저 사용하는 데 혈안이 되어 있다. AI에 대해서도 마찬가지다. 기업의 41%가 이미 AI를 활용 중이라 답했고, OECD 회원국 중 한국이 AI, 빅데이터 분석, 사물인터넷(IoT) 등 신기술 도입률이 1위라는 조사 결과가 나왔다. 막강한 첨단 통신 네트워크와 기술 인프라를 바탕으로 산업 전반에 걸쳐 AI 솔루션을 더 쉽게 구현하고 확장할 수 있다는 평가다.
기업뿐만 아니라 개개인도 AI 관심이 뜨겁다. 국민 10명 중 1명 이상이 생성형 인공지능(AI)을 이용해 본 적이 있으며 특히 텍스트 생성 이용 비율이 압도적인 것으로 나타났다. 2023년 11월 조사 당시 오픈AI의 챗GPT가 시장에 출시된 지 1년밖에 지나지 않은 것을 감안하면 생성형 AI 이용 경험이 단기간에 상당히 확산한 것으로 볼 수 있다.
AI의 기술적 파급력과 확산 속도를 볼 때 각 국민의 삶에 미치는 영향도 막대할 것으로 예상되나, 기업들은 치열한 경쟁 속에 안전 문제를 뒤로 미뤄두는 경향을 보이고 있다. 기업들의 자정 작용만으로는 이런 우려에 대해 효과적으로 대응하기 어렵고, 이용자로서 개개인에 대한 보호는 정부의 역할에 많이 의존할 것으로 보인다. 전편들에서 다뤘듯이, AI 악용 가능성이 크고, AI 기술 자체도 완전하지 않으며, AI에 내재된 위험과 부작용들이 있다. 우리의 권익 보호를 위해 정부의 역할이 중요하다.
한국의 AI 규제, 어디까지 왔을까
주요국 정부는 이런 AI 규제 필요성을 인지하고 팔을 걷어붙이고 있다. 전편에서 살펴본 EU의 경우 AI 규제법을 통해 강제성을 갖춘 포괄적 AI 규제 방안을 이미 마련해 두었다. 미국도 중앙정부 차원의 행정명령을 통해 본격 규제 시동을 걸고 있으나 11월 대선 이후 상당한 변화가 예상된다. 일본은 그간 기존 법률로 AI를 관리해 오다 올해 5월 내각부 산하 'AI 전략회의'에서 AI 규제 기본방침과 AI 안전성 확보를 위한 법률 규제 방침을 마련하고 2026년 시행하겠다는 계획을 공표했다. 영국은 지난해 3월 'AI 규제백서'를 발간했다. 주요국은 AI 규제법 제정 또는 시행에 임박했거나 방향성을 정리해 나가고 있다는 평가다.
그렇다면 한국의 어디까지 와있을까. 한국의 AI 규제는 세 단계로 나눠볼 수 있겠다. 1) 2016-2018년 초기 구상 단계, 2) 2019-2021년 구체화 단계, 3) 2022년 이후 법제화 노력 단계이다. 초기 구상 단계인 2016년부터 AI 발전의 토대로서 윤리적 기준, 데이터 프라이버시 보호 등 내용의 논의되기 시작했고, 이후 2019년에는 AI 발전 계획의 일부가 아닌 윤리 기준 자체에 초점을 둔 가이드라인이 마련되었다. 이런 노력들을 통해 기본적인 틀은 갖추었으나, 아직 세부적인 법제화와 실효성 있는 집행 메커니즘 구축이 향후 과제로 남아있다. 이를 위해 지난 21대 국회에서 ‘인공지능 기본법'을 통화 법제화 노력을 기울였으나 법안은 통과되지 못했다.
2016-2018년 초기 구상 단계를 들여다보면, AI 규제에 대한 착상이 2016년 정부의 '지능정보사회 중장기 종합대책' 발표로 본격화되었다. 이 대책은 AI 규제가 아니라 AI 발전을 위한 환경 조성에 초점을 맞추고 있다. 직접적인 AI 규제보다는 AI 발전을 위한 기반으로서 AI 윤리 가이드라인 마련, 인간의 존엄성 보장, 프라이버시 보호 등의 원칙을 강조했다 AI 안전성 확보를 위한 기술 개발 및 표준화, AI 책임성 확보를 위한 AI의 의사결정에 대한 설명 가능성과 책임 소재 규정 등 원칙 및 AI 기술의 악용을 방지하기 위한 제도적 장치 마련을 ‘제안’했다. 이와 같은 원칙은 2018년 과학기술정보통신부의 'I-Korea 4.0 실현을 위한 인공지능(AI) R&D 전략'에도 담겨 있다. 여전히 방점은 AI 발전 및 육성에 찍혀 있고, 규제의 필요성은 인지하되 규제 샌드박스 도입을 통해 예외를 인정함으로써 혁신에 더 무게를 싣고 있다.
2019년부터는 윤리기준에 초점을 둔 정부의 노력이 진행되었다. 산업 발전 정책의 일부를 구성하기보다 AI 윤리 자체를 핵심 주제로 한 정부의 노력들이 나오기 시작했다. 과학기술정보통신부는 2019년부터 준비하기 시작한 ‘인공지능 윤리기준'을 2021년 12월에 확정하여 발표하였다.
이 윤리기준은 인간성(Humanity)을 위한 3대 기본원칙과 10대 핵심요건을 제시하고 있다. “모든 인공 지능은 ‘인간성을 위한 인공지능’을 지향하고, 인간에게 유용할 뿐만 아니라 나아가 인간 고유의 성품을 훼손하지 않고 보존하고 함양하도록 개발되고 활용돼야 한다는 인간 중심주의를 천명하며, 이에 따라 인공지능의 개발과 활용의 모든 과정에서 1) 인간의 존엄성 원칙, 2) 사회의 공공선 원칙, 3) 합목적성 원칙을 지켜야 한다는 3대 원칙을 세웠다. 더불어, 인공지능 전체 생명 주기에 걸쳐 충족돼야 하는 10가지 핵심 요건을 제시했다. 10가지 핵심요건은 인권 보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성 등이다.
과기정통부 관계자는 이 윤리 기준을 두고 “구속력 있는 '법'이나 '지침'이 아닌 도덕적 규범이자 자율규범으로, 기업 자율성을 존중하고 인공지능 기술발전을 장려하며 기술과 사회변화에 유연하게 대처할 수 있는 윤리 담론을 형성하는데 노력했다”라고 설명했다. 요약하자면, 꼭 지켜야 할 강제성 있는 규범은 아니고 AI 규제 ‘논의’의 ‘출발점'으로 삼자는 것이다.
2020년에는 발표된 과학기술정보통신부와 국무조정실이 ‘인공지능 법·제도·규제 정비 로드맵’을 확정·발표하고 인공지능 시대를 준비해 나가기 위한 법적 기반을 마련해 나가겠다며 원대한 계획을 공표했다. 이 원대한 계획이 얼마나 잘 구체화되고 있는지 날카로운 국민의 시선으로 감시 감독할 필요가 있다. (국민들은 잊지 않는다는 것을 보여주자!). 정부는 ‘인공지능 법·제도·규제 정비 로드맵’을 수립함에 있어 인공지능의 고유한 기술 특성과 빠른 발전 속도로 인한 신기술과 구제도 간의 간극을 극복하기 위해 종합적·선제적인 정비를 추진’했고, 또 사회적 합의에 기초한 민간자율을 우선하는 로드맵을 마련, 인공지능 관련 분야 법·제도·규제 정비의 이정표를 제시하고자 했다’고 자평했다. 이 약속이 2022년 인공지능 기본법 추진 과정에 있어 얼마나 잘 반영되었는지 따져볼 것이다.
(참고로 2023년 인공지능 법제도정비단이 2023년 내로 로드맵 2.0을 발표하기로 하였으나, 어디 있는지 대체 찾을 수 없다. 정비단이 큰 소리는 다 쳐놓고 아직 미처 숙제를 못한 것인지, 나의 서치 실력에 문제가 있는 것인지 모르겠다.)
담론과 계획을 넘어선 구체적 법제화 노력은 2023년 '인공지능 기본법' 제정 논의 본격화와 함께 시작되었다. 인공지능 관련 규제의 중추를 이룰 것으로 예상되는 포괄적인 법이다. ‘기본법'이라는 명칭에서 엿볼 수 있듯이, 향후 AI 규제의 뼈대 역할을 할 예정이며 각 부처와 규제 기관들이 AI 관련 세부 규제를 도입, 시행할 때 나침반이 될 법안이다. 더 자세히 들여다볼 필요가 있다.
한국 AI 규제의 토대이자 나침반, 인공지능 기본법
인공지능 기본법은 AI 기술 도입·활용 지원, AI 기술 개발·창업 지원 등 산업 육성, AI 윤리 원칙에 따른 정책 수립, AI 신뢰성 확보를 위한 근거 마련, 고위험영역 AI 고지의무 부과 등 AI 산업을 진흥하고 역기능에 대응하는 내용이 포괄적으로 담겨 있다. 앞서 21대 국회에서 발의되었으나 통과되지 못했고, 이번 22대 국회에서 6개의 AI 기본법이 새로 발의됐다.
인공지능 기본법 제정의 필요성은 산업계뿐 아니라 시민사회에서도 꾸준히 제기되었다. (물론 그 필요성에 대한 해석은 각기 다르다). 인공지능 기본법이 제정돼야 관련 정부가 AI 기술 도입 및 산업 육성, 윤리원칙에 따른 정책 수립 및 규제를 위한 예산을 편성 및 집행하고 관련 조직들을 정비할 수 있게 된다. 특히 규제 측면에서 기본법이 중추 역할을 해야 각 부처들이 전문 영역에서 세부 규제를 도입하고 시행할 수 있게 된다.
그러나 21대 과방위 여야는 일본 라인야후 사태, 방심위의 징계 남발·예산 낭비 문제 등과 관련한 이견 등 정쟁으로 여야 간 대치만 이어지다가 결국 AI 기본법을 해결하지 못하고 폐기시켰다. 기업연구소법, 망무임승차방지법, 디지털포용법, 디지털안전서비스법 등 중요 법안들도 인공지능 기본법과 함께 사라졌다.
‘국회가 또?’ 하면서 국회 탓을, 여야 간 정쟁으로 점철된 우리 정치를 신물이 난다고 탓하고 돌아설 수도 있지만, 사실 발의되었던 인공지능법의 내용적, 절차적 문제점에 대해 한 번 자세히 들여다볼 필요가 있다.
내용 면에서 가장 큰 우려가 제기되었던 부분은 제11조에 규정된 ‘우선허용·사후규제' 원칙이었다. 법안 내 이 조항에 따르면 ‘누구든지 인공지능 관련 제품이나 서비스를 출시할 수 있고, 국민의 생명·안전·권익에 위해 되는 경우가 아니면 인공지능 기술개발을 제한하면 안 된다’고 규정되어 있다. 웬만하면 개발을 진행하라는 녹색 신호등을 켜주는 원칙이다.
이 원칙은 미국 빅테크에 한참 뒤처진 국내 AI 산업 진흥을 염두에 두었겠으나, AI의 무분별한 개발·활용에 따른 위험을 지적하는 목소리가 높았다. 인공지능의 위험성을 고려하지 않은 채 인공지능을 무분별하게 개발·활용할 경우 기본권 침해를 포함한 예상치 못한 위험을 초래할 수 있으므로 사전에 충분히 대비하는 것이 중요하다는 것이다. 나아가 산업의 경제성·효율성만 따져서 사전·사후 평가 없이 개발·활용된 인공지능 기술이 국제 기준에 못 미치는 결과를 초래할 수 있고, 이로 인해 오히려 국제 경쟁력을 저하시키고 나아가 인공지능 기술의 신뢰성마저 떨어뜨릴 우려가 있다는 지적도 받았다.
이러한 이유로 국가인권위원회에서는 우선허용·사후규제 원칙 조항을 ‘삭제'해야 한다고 공식 의견을 표명했고 시민사회도 동조했다. 론개혁시민연대, 참여연대 등 26개 단체는 국가인권위원회 의견을 수용하라는 공동 논평을 내고 “국회는 인공지능 결정에 영향을 받게 되는 수많은 사람들을 제도적으로 보호할 책무가 포함되어 있다”라고 발표했다.
발의되었던 인공지능 기본법은 전체적으로 규제와 관련된 의무를 규정하고 있으나 과징금 등 의무이행 확보수단을 규정하지 않고 있다는 측면에서 산업진흥 및 자율 규제 중심의 법안으로 평가된다. 전편에서 밝혔듯이 EU가 규제를 보면 위반 기업들에게 전 세계 매출의 7% 까지 과징금을 물리는 것과 대조적이다. 또한 EU가 허용될 수 없는 초고위험 AI 기술을 원천 금지하는 반면, 한국의 인공지능 기본법에는 금지 규정이 없다. 실효적인 처벌 없이 기업이 발 벗고 나서서 비용이 수반되는 위험 예방 조치를 따를지 의문이 든다. 최소한의 필수 이용자 보호 조치들은 의무화되어야 한다는 지적이 있다.
21대 국회 인공지능 법률안은 과학기술정보통신부장관으로 하여금 인공 지능 기술 및 산업 진흥·육성 업무뿐만 아니라, 고위험 영역 인공지능 확인 등 인공지능 규제에 관한 업무도 담당하도록 하고 있다. 산업 진흥과 규제는 상호 긴장 관계에 놓일 수 있다. 한 기관이 담당할 경우 규제의 객관성과 실효성을 담보하기 어려울 수 있다. 인공지능 감독·규제 업무는 제3의 기관이 독립적으로 수행해야 한다는 주장이 나오는 이유이다.
나아가, 과기정통부 역시 사회와 산업 전반에 걸쳐 있는 인공지능 기술 문제를 모두 규제하기에는 분야별 전문성이 결여될 수 있다. AI챗봇 이루다 사건에서 개인정보 침해 문제에 대해서는 개인정보보호위원회가 전문성을 발휘했고, 네이버쇼핑, 쿠팡 등 기업의 알고리즘 조작 사건에 대해서는 공정거래위원회가 전문성을 보였다. 인공지능법에 대한 고유한 집행은 일부 경제부처보다는 규제 전문 기관이나 독립적인 감독 기관에서 컨트롤 타워 역할을 담당하는 게 바람직하다는 의견이 나오는 이유다.
지나친 산업진흥 중심의 접근, 실효성에 대한 의문, 감독기관의 독립성 문제 외에도 고위험 인공지능에 대한 협소한 정의, 불분명한 권리 침해 구제절차 등이 내용적 문제점으로 지적되고 있다. 악마는 디테일에 있다고 했듯이, 크고 작은 다른 문제들이 법안 심사 및 통과 과정에서 대두될 여지가 있다. 우려스러운 점은 이런 복잡 다단한 문제를 해결하는 ‘과정' 상에도 문제가 있어 보인다는 점이다.
인공지능 기본법 추진 과정 중 눈에 띄는 에피소드가 하나 있었다. 기본법 제정을 추진 중인 과기정통부가 기업들과 한 비공개 간담회에서 “시민단체 반대 의견을 최소한으로 수렴한다”는 입장을 전달한 것으로 확인된 것이다. 시민단체 측에서 기본법 법안이 인공지능의 부작용을 줄일 수 있는 안전장치가 부실하다며 반대했는데, 이런 반대 의견을 ‘최소한'으로 수렴하고 산업 진흥 조항은 최대 유지, 처벌 규정은 삭제하겠다고 회의 안건에 과기정통부 입장이 명시된 것이다. 이에 앞서 과기정통부 장관은 “시민사회가 제기한 우려를 (법안 수정을 통해) 모두 해소했다”라고 밝힌 적이 있는데, 해소라는 표현을 붙이기는 어려워 보인다.
산업계의 이해관계만을 대변하는 게 정부에 기대되는 역할을 아닌데 이용자로서 국민들 보호에 대한 책임을 잘할 수 있을지 절차적 투명성과 공정성에 의구심이 제기되는 대목이다. 과기정통부 쪽에서는 이를 두고 ‘실무자 실수'라며 해명하며 시민사회 의견을 듣겠다고 했다. 경제발전 만능주의로 민주주의 숙의 절차를 ‘최소화'하고 일부 이해관계를 편향되게 반영한다면 그 결과물인 한국의 인공지능 규범에 대해 국내적 신뢰뿐 아니라 국제사회의 신뢰를 얻기 힘들 수 있다.
AI 규제를 둘러싼 부처 간 주도권 싸움 및 경쟁도 우려 대상이다. 여러 부처 간의 분절화된 규제는 기업과 이용자들의 규제 이해와 규제예측력을 저해하고 부처 간 비효율성 및 불필요한 행정 비용을 낳는다. 그렇기 때문에 중추 역할을 인공지능 기본법이 필요한 것이지만, 같은 이유로 여러 부처들이 주도권 확보를 위한 영역 싸움을 기본법 제정 과정에서 재현할 여지가 있다.
세계적인 석학이자 국제정치학자인 미국 하버드대 그레이엄 앨리슨(Graham Allison) 교수는 그의 정책 결정 이론 중 하나인 관료정치모델에서는 정책이 국가라는 단일행위자의 합리적인 결정의 결과라기보다는 다양한 이해관계와 권한을 가진 여러 부처, 부서 및 관료 개개인의 정치적 협상과 타협의 결과로 본다. 인공지능 기본법 추진 과정에서도 과기정통부, 산업통상자원부, 공정거래위원회, 개인정보보호위원회, 금융위원회, 문화체육관광부, 방송통신위원회 등 여러 부처가 산업 진흥, 반독점 및 부당경쟁, 프라이버시, 금융 시장 건전성, 저작권, 허위조작정보 등 인공지능 관련 분야에 주도권을 확보하고자 노력할 것으로 예상된다. 이 부처들은 이미 각자 경쟁적으로 AI 가이드라인을 쏟아내고 있다. 기본법 제정 과정에서 이런 규제들이 통일성과 조화를 이루게 관리가 필요해 보인다. 실패할 경우 얼기설기 짜깁기로 마련된 누더기 법안에 기업 및 이용자들의 부담과 비용만 증대될 수 있다.
과도한 속도전에 대한 경계 - 급하다고 다 덮어놓고 통과시킬 수는 없다
인공지능 기본법이 절실한 것은 사실이다. 그러나 정부와 일부 언론이 지나치게 기본법 제정을 서두를 때 경계해야 할 점이 있다. 기본법의 조속 제정을 주장하는 사람들의 숨겨진 어젠다는 ‘산업중심적' 느슨한 규제를 빨리 통과해 달라는 의도가 있는 것은 아닌지 따져볼 필요가 있다. 규제 속도전의 핵심 명분은 산업 속도전인 경우가 많다. 어쨌든 우리 기업이 뒤쳐지면 안 된다는 것이다. 속도를 강조한 여론몰이 속에 안전과 국민들의 권익 문제가 좌시되지 않도록 견제가 필요하다.
인공지능 기본법을 기술경쟁이나 AI 전쟁의 시각으로만 프레이밍 되지 않도록 경계해야 한다. 기본법 제정을 서두르더라도 단순히 국민들의 보호가 시급하기 때문이라는 문제의식도 필요하다. AI 윤리와 안전성, 책임성도 중요하다. 기업이 뒤처진다는 것만이 근본문제로 정의되어서는 안 된다. 뭐든 좋으니 일단 통과시켜라라고 목소리를 높이는 이해관계자들이 그렇게 일단 통과시켜 놓은 법안으로부터 어떤 편익을 기대하고 있는지 짚어볼 필요가 있다.
일부 국내 테크업계 인사는 "AI 분야는 국가 경쟁력을 좌우하는 전장"이라며 "최전방에 나서는 기업들이 잘 싸울 수 있도록 보급해 주는 것이 정부의 역할이라고 생각한다"라고 말한다. 과연 그럴까. 정부의 지원은 온 국민의 세금으로 이뤄지는데, 일부 소수의 기업이 국가대표로 출전해서 싸운 후 얻는 과실은 어떻게 그 기업을 넘어서 국민 모두에게 돌아갈 수 있을지 궁금해진다. 기업 입장에서는 기업의 시각을 대변하는 게 당연하지만, 국가 경쟁력을 기업 경쟁력으로 협소하게 치환시킬 수는 없다.
1등 기업이 있다는 것만으로 한 국가가 1등이 되지는 않는다. 국민들의 안전과 이용자 보호, AI 산업 발전에 따른 성장에 대한 공정한 국가적 분배와 이해관계 조정, 글로벌 표준으로 규범적 경쟁력 등 보다 복합적인 고려가 필요하다. 기업 경쟁력 제고는 여러 중요한 고려 사항 중 하나이지 오직 하나의 고려 사항이 될 수는 없다. 최전방에 나서는 기업들을 위한 병참기지 역할을 하는 게 아니라 이런 복합적 고민 속에서 어렵고 미묘한 균형을 찾는 게 정부의 역할이라고 생각한다.
규제에도 국격이 있다
규제에도 국격이 있다. 기업 경쟁력 확보만을 규범의 중심에 둘 경우 황금만능주의라는 비판을 피하기 어렵다. 물질적 진보에 올인한 규범이 국제적 규범이 되는 것도 당연히 어렵다. 한국은 경제발전과 더불어 민주주의를 달성했다는 점을 국가의 자랑으로 여기며 홍보해 왔다. AI라는 새로운 시대적 과제에 대해서도 그에 걸맞은 모습을 보여줄 필요가 있다고 생각한다. AI 산업 육성을 넘어서 윤리 책임 사회적 영향에 대한 고려를 포함하는 더 넓은 범위의 규제 접근 방식에 대한 논의는 아직 성숙하지 않은 것으로 보인다. AI 기술이 점점 더 국경을 넘나들면서 AI 거버넌스에 대한 국제적 조율 움직임도 활발해지고 있다. 산업발전과 더불어 윤리 및 안전성에 대한 심도 있는 고민은 국내 AI 정책을 강화할 수 있을 뿐만 아니라 글로벌 표준 경쟁에도 기여할 수 있다.
지난 5월 한국은 AI 정상회의를 개최했다. G7 주요국 및 빅테크 관계자들이 참석했다. 우리 정부가 자랑스럽게 성과로 발표 안 정상회의 결과물인 ‘서울 선언’중 일부를 발췌해 보겠다.
“우리는 인간 중심적인 AI를 활용하여 국제 난제를 해결하고, 민주주의적 가치·법치주의 및 인권·기본적 자유와 프라이버시를 보호 및 증진하고, 국가 간의 그리고 국내적인 AI 및 디지털 격차를 해소함으로써, 인간의 복지를 향상하고, 유엔 지속가능발전목표 진전을 포함하여 AI를 실용적으로 활용하도록 지원하기 위해, AI 안전·혁신·포용성을 향상하는 국제 협력 강화를 촉구한다.”
“우리는 안전하고, 혁신적이고, 포용적인 AI 생태계 육성을 위해 정부·민간·학계·시민사회를 포함하는 다중이해관계자 간 적극적 협력 및 초국경적·학제 간 협력의 중요성을 강조한다. AI의 혜택과 위험에 모든 국가들이 영향을 받는다는 점을 인식하면서, 우리는 AI 거버넌스 관련 대화에 폭넓은 국제 이해관계자들을 적극적으로 포함시킬 것이다.”
이 선언에 대한 한국의 자평은 국제질서 형성에 한국의 존재감을 드러냈다는 것이다. 과연 인공지능 기본법 제정 과정에서 우리 정부가 국제질서 형성을 선도하기에 당당한 모습들을 보여왔는지 자성해 볼 필요가 있다. 정말 민주주의적 가치와 인권을 보호하는데 충분한 주안점을 두었는지, 그 과정이 포용적이고 다양한 이해관계자 간 적극적 협력을 이끌어냈는지 돌아봐야 한다.
22대 국회는 과연 어떤 선택을 할 것인가
현재 22대 국회에는 6개의 인공지능 기본법 법안이 발의되어 있다. 일부 법안들을 보면 이미 21대 국회 법률안이 지녔던 문제점들을 해결하고자 하는 시도가 보인다. 반면, 기존의 문제점들이 완전히 해소되지 않은 법안들도 보인다. 이번 22대 국회에서 어떻게 인공지능 기본법을 풀어나갈지 귀추가 주목된다. 산업육성과 안전성을 균형 있게 갖추어 AI 강국을 향해가는 길에 절름발이 걸음을 걷지 않게 되기를 바란다.