AI 규제 담론(1)

인간 존엄성 사수를 위한 AI 규제의 중요성과 시급성

by 날개

AI 기술은 이미 생성형 AI(Generative AI) 단계를 넘어섰다. 이 단계에서는 AI가 텍스트, 이미지 등 새로운 컨텐츠를 창조하는 정도에 머물지만, 그 다음 단계의 AI, 즉 AGI(Artificial General Intelligence, 범용 인공지능)는 학습한 데이터를 기반으로 인간처럼 복잡한 상황에서 스스로 판단하고 실행하며 문제를 해결하는 능력을 갖춘다. AGI를 넘어설 것으로 예상되는 ASI(Artificial Superintelligence, 초지능) 단계는 인간의 지능을 모든 면에서 월등히 능가하며, 스스로를 재귀적으로 개선하고 진화하는 능력을 가진다. 미래학의 선구자 '레이 커즈와일'(Ray Kurzweil, 1948~)이 예측한 대로, 기술 진화는 기하급수적 속도로 가속화되어 인간의 예측 경계를 끊임없이 넘어서고 있다. 이러한 비선형적 발전은 인류가 상상할 수 없는 통제 불능(loss of control)의 상황을 초래할 현실적 위험을 내포하며, 이는 오늘날의 윤리적, 법적 논의의 핵심이 된다.


이러한 위협에 대응하기 위해, 유럽연합(EU) 등은 선제적 통제 전략을 취하고 있다. EU는 '24년 3월에 최종 승인되고 동년 7월 12일 관보에 게재된 'AI법'{Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence and amending certain Union legislative acts(Artificial Intelligence Act)}을 '24년 8월 1일 자로 단계적 시행 중이다. 이 법안에서는 인공지능이 시민의 권리나 안전에 해를 끼칠 가능성이 특히 높은 영역(예: 채용 심사, 신용 평가, 자율주행차)에 AI가 사용되는 경우, 이를 고위험 AI로 지정하게 되는데, 개발 단계부터 엄격한 안전 기준, 투명성 의무, 인간 감독(human oversight) 기능을 의무적으로 탑재하여야 한다. 또한, 2022년 9월에 제안된 '인공지능 민사 책임에 관한 지침'(AI Liability Directive)은 AI 오류로 인한 민사적인 피해 구제 절차를 용이하게 하는 내용이다. 그 밖에 '디지털 서비스법'(Digital Services Act, DSA), '디지털 시장법'(Digital Markets Act, DMA), '일반 데이터 보호 규정'(General Data Protection Regulation, GDPR) 등이 AI의 알고리즘 투명성, 시장 경쟁, 개인정보 보호 등의 역할을 수행하고 있는데, EU에서는 이러한 규제들을 통해 인간의 통제권을 최종적으로 확보하려는 국가의 헌법적 보호 의무를 이행하려는 노력을 하고 있다고 평가할 수 있다.


그러나, 많은 나라에서 규제 당국의 이러한 노력은, 기술을 개발하고 시장을 지배하는 빅테크 기업들의 강력한 저항에 직면할 수 있다. 빅테크들은 자신의 이익을 대변하는 주요 협회나 싱크탱크를 통해 연합하여 규제에 대응하고 있는데, ITIF(Information Technology and Innovation Foundation), 넷초이스(NetChoice), 테크넷(TechNet), CCIA(Computer & Communications Industry Association), BSA(The Software Alliance) 등을 대표적으로 들 수 있다. 그들은 이를 기반으로 규제 당국과 입법 과정에 깊숙이 침투하여 '규제 포획'(regulatory capture)의 다각적인 노력을 전방위적으로 펼친다. 빅테크는 막대한 자본과 법무 역량을 동원하여 규제에 반대하는 소송을 제기하는 등 법적인 절차를 통해 법의 시행을 장기간 무력화시킨다. 또한, '입법 로비'를 통해 법안 자체에 유리한 조항을 삽입하거나, 아예 규제 논의를 원천적으로 지연시키고 좌절시키기도 한다. 이러한 과정을 통해 정부 관료, 입법자, 심지어는 학자까지 무력하게 만들고, 법집행의 의지를 사전에 꺾어버린다.


반면, 거대 권력의 집중을 막고 민주적 대응을 해야 할 우리 사회의 주체인 개인들은 어떠한가? 우리는 파편화되고 개인화된 스마트폰 화면 속에서 달콤한 숏폼 컨텐츠와 같이 빅테크가 제공하는 재미와 편의에 중독되어 있다. 복잡하고 장기적인 AI 거버넌스 문제에 대한 관심과 연대의 에너지는 찾아볼 수 없고, 즉각적인 만족을 추구하는 주의력 경제에 포획되어 있다. 이처럼 대중이 공동의 위협에 대해 공통의 인식을 형성하고 연합하여 행동할 능력이 약화될 때, 민주적 대응의 한계는 더욱 뚜렷해질 수밖에 없다.


만약 이대로 간다면, 통제력을 상실한 AI 시스템과, 그 시스템의 '킬 스위치'(kill switch; AI 작동을 멈추는 비상 버튼) 또는 핵심 자원(데이터, 알고리즘 코드)을 독점적으로 보유한 극소수의 빅테크 권력이 국가와 법 위에 군림하는 완전한 통제 사회가 도래할 현실적 위험은 매우 높아 보인다. 이 암울한 시나리오를 막기 위해 "지금 이미 늦은 거 아닌가?"라는 근본적인 질문 앞에서 우리는 무력하게 주저앉아선 안 된다. AI 규제는 인간의 존엄성(헌법 제10조)과 평등권(헌법 제11조)을 지키기 위한 헌법적 필요성과 당위성을 가지는 중대한 문제이기 때문이다.


따라서, 우리는 '인간'의 통제권을 잃지 않기 위해 지금 당장 움직여야 한다. 지지부진한 국내 AI 규제 논의가 더 이상 지체되어서는 안 된다. 우리나라에서도 국회에 '인공지능 기본법' 등이 발의되어 있으나, 혁신 진흥과 규제 간의 균형 문제로 인해 논의가 정체되어 있는 것으로 파악된다. 즉, AI 기술 진흥을 우선해야 한다는 주장과 규제를 서둘러 도입해야 한다는 주장이 첨예하게 대립하면서 법안 처리가 지연되고 있는 상황이다. AI 규제는 기술이 곧 국가 경쟁력의 핵심이라는 점을 감안하면서도, 평범한 인간이 AI나 빅테크에게 통제권을 완전히 빼앗기지 않도록 시스템 설계 단계부터 투명성, 설명 가능성, 책임성을 강제하는 산업규제를 도입해야 한다. AI 기술의 발전 속도는 매우 빠르기 때문에 일단 통제 불능의 상황이 발생하면 법과 제도는 절대 따라잡기 힘들 가능성이 높다. 지금 규제 논의를 서둘러야 하는 이유는 AI 기술을 진흥하는 근거를 만들고 산업을 육성하는 데에서 더 나아가, 만일의 사태에 대비하여 '기술적 안전장치(킬 스위치)'나 법적 책임 소재를 미리 정해두고 대비할 시간을 확보하는 전략적 행위이기 때문이다. 이와 함께 기존의 경쟁법적 시각 또한 AI 시스템에 투명성 등의 의무를 부과하는 방식으로 유연하게 적극적으로 활용되어야 할 것이다. AI 그 자체와 이를 독점하는 소수 기술 권력에게 통제권을 빼앗기지 않도록, 우리는 기술의 진보와 인간의 존엄성 모두를 아우르는 입체적이고 강력한 제도적 틀을 시급히 도입해야 하며, 이를 통해 AI의 미래가 헌법적 가치를 지향하는 윤리적 나침반 아래 놓이도록 해야 한다. 다음 포스팅에서 계속......

작가의 이전글숏폼 규제 담론(3)