brunch

You can make anything
by writing

C.S.Lewis

by 왈로비 Oct 03. 2023

인공지능(AI) 규제 미리 보기

유럽 인공지능법(EU AI Act)안 소개

 2016년 '이세돌 vs 알파고(구글 딥마인드)' 세기의 대결은 인공지능(AI, Artificial Intelligence)이 인류를 넘어설지도 모른다는 두려움을 안겨준 최초의 사건으로 기억됩니다.


그리고 시간이 흘러 스타크래프트2를 플레이하는 인공지능인 '알파스타'가 개발되어 2019년 프로게이머와의 승부에서 10승 1패를 기록할 정도로 발전하였습니다. 바둑보다 더 복잡한 전략시뮬레이션에서도 인간을 뛰어넘은 것이죠.


또한, 2023년 생물학계에서도 구글 딥마인드가 개발한 단백질 구조 예측 인공지능 모델인 '알파폴드'가 저명한 생물학자들을 제치고 미국판 노벨 생리의학상으로 불리는 래스커상을 받기도 하였습니다. 


알파고, 알파스타 및 알파폴드는 특정 영역에서 이미 인간지능을 뛰어넘기는 하였으나, 인간의 범용성과는 다른 범주의 지능으로 여겨져 사람들의 눈에 잘 띄지 않았던 것 같습니다. 


2022년 말 오픈AI(OpenAI)가 공개한 인공지능 챗봇인 'ChatGPT(Generative Pre-trained Transformer)'는 '범용 인공지능(AGI, Artificial General Intelligence)'의 출발점으로, 전 세계의 열광적인 관심을 받고 있습니다. ChatGPT는 대량의 텍스트 데이터를 학습한 거대언어모델(LLM, Large Language Model)로서 이전 단어들을 바탕으로 특정 맥락(Context)을 고려하여 다음에 나올 단어나 문장을 확률적으로 선택하여 제시합니다. 


예를 들면, ChatGPT는 "나는 오늘 친구들과의 파티를 위해서 세계에서 가장 많이 팔리는 증류주인 _____"라는 문장 다음에 나올 단어나 문장을 물어보면, 다량의 텍스트 데이터를 학습한 결과와 맥락을 고려하여 대화에서 자주 나올법한 "나는 오늘 친구들과의 파티를 위해서 세계에서 가장 많이 팔리는 증류주인 참이슬을 구매하였다"를 다음 문장으로 제시하는 것입니다.


인간 지식 대부분이 글자나 언어 등 텍스트 기반의 데이터로 기록되어 있다는 점을 고려해 보면 ChatGPT는 범용 인공지능으로서 적용될 수 있는 분야도 굉장히 다양하고, 답변에 대한 만족도가 높기 때문에 현재와 같은 열풍을 만들어 냈고, 앞으로 활용될 가능성도 무궁무진할 것으로 생각됩니다.




그러나, 인공지능 기술에는 긍정적인 면만 있는 것은 아닙니다. 


ChatGPT가 확률에 기반한 답변을 제시하기 때문에 사실이 아닌 답변을 마치 사실인 것처럼 생성하여 제시한다는 '환각(hallucination)' 현상이 생성형 인공지능에서 흔히 발생하는 문제점으로 지적되어 왔습니다.


오픈AI의 초기 설립자 중 한 사람인 일런 머스크(Elon Musk)는 "선의의 의도조차도 인공지능에 의해 기계 작동법을 잊어버릴 정도가 되면 인류문명에 위험할 수 있다"라고 하면서 인공지능에 대한 우려를 강하게 표현하기도 하였습니다. 


일런 머스크의 이와 같은 걱정은 인공지능 기술의 원리로부터 초래되었을 것입니다. 현재의 인공지능 기술은 '기계학습(Machine Learning)', 그중에서도 인간의 뇌를 흉내 낸 인공신경망(Artificail Neural Network)을 여러 계층(Layer)으로 쌓아서 만든 '딥러닝(Deep Learning)' 기술입니다.

딥러닝을 간단히 설명하자면, 결괏값(목표)에 대해 y=f(x)와 같은 함수를 세우고 입력값에 대응하는 결괏값이 나오도록 하는 최적의 매개변수(Parameter) 또는 가중치(weight)를 찾는 과정이며, 각 변수들에 대한 매개변수(가중치) 값이 어떻게 채워지는지 데이터를 학습하여 찾아가는 원리입니다. 예를 들면, y = ax² + bx + c 라는 함수가 있다면 가중치인 a, b, c를 찾는 것입니다.


알파고를 통해 딥러닝 기술을 이해해 보자면, 먼저 알파고에게 '상대방보다 더 많은 집을 가질 것'이라는 결괏값(목표)을 설정하고, 이에 대응하는 함수를 만듭니다. 그러면 알파고는 상대방보다 더 많은 집을 가져 바둑을 승리한다는 목표를 달성하기 위해 기존에 기록되어 있었던 대국(기보)을 학습하여 최적의 가중치를 찾아냅니다. 그러나 가로·세로 각 19줄을 가진 바둑에서 나올 수 있는 모든 경우의 수(10의 170 제곱)는 너무 크기 때문에 함수의 계층과 가중치는 인간이 이해하지 못할 만큼 복잡할 것입니다. 인공지능은 데이터를 학습하여 목표에 맞는 최적의 가중치를 찾아내지만, 인간은 인공지능이 가중치를 어떤 값들로 채우는지, 그 값들이 어떤 의미를 갖는지 이해할 수 없는 수준에 이르게 됩니다. 즉, 인간은 인공지능의 결과물만을 받아들이고, 왜 그 결과물이 나왔는지 이해할 수 없게 되는 것이지요. 알파고가 인간을 상대로 바둑에서 승리하지만 어떻게 승리하는지를 알파고 개발진들이 이해하지 못하는 것처럼요.

일런 머스크는 인간이 먼 훗날 자신의 의지와는 상관없이 인공지능이 시키는 대로만 살아가야 하는 시대를 걱정했던 것일지 모르겠습니다. 자신의 의지와 생각과는 상관없이 유튜브 알고리즘이 추천해 주는 영상만을 시청하는 사람들의 모습이 인공지능 시대를 우려하는 일런 머스크가 본 미래에 대한 예고편일 수도 있을 것입니다.


또한, 딥러닝 개념을 처음으로 고안해 낸 인공지능 분야의 세계적 석학인 제프리 힌튼(Geoffrey Hinton)은 10년 동안의 구글 생활을 마치면서 인공지능의 위험성에 대해 빅테크 기업들이 지금처럼 경쟁을 벌이며 기술을 개발하면 인간의 통제를 벗어난 '킬러 로봇' 마저 나올 수 있지만, 이를 통제할 방법이 없다고 우려를 표하기도 하였습니다.


최근에는 휴머노이드로봇, 견마형로봇, 서빙로봇, 배달로봇 등 다양한 로봇들이 등장하여 산업에 활용되고 있는데, 이와 같은 로봇들이 총과 같은 무기를 들고 인간을 위협하기 위한 인공지능이 탑재된다면 전쟁에서나 사용될법한 킬러로봇이 만들어질 수도 있을 것입니다.


인공지능이 사회에 미칠 부정적인 영향은 인공지능이 우리의 생각을 지배하는 것에서부터, 인간이 만든 인공지능 때문에 인류가 멸망하고 기계의 지배를 받게 되는 시대, 유일한 희망인 반기계 연합 사령관 존 코너의 탄생을 막기 위해 존 코너의 어머니인 사라 코너를 제거하기 위해 타임머신을 타고 터미네이터를 과거로 보내는 내용의 영화 '터미네이터'처럼 (가능성은 극히 희박하지만) 우리의 생명을 위협하는 일까지도 발생할 수 있을 것입니다.




인공지능이 사회에 가져다주는 긍정적인 효용은 받아들이면서도, 사회에 미칠 부작용을 줄이기 위해 어떠한 규제가 입법되고 있을까요?


인공지능 규제를 제일 먼저 발 빠르게 준비한 곳은 유럽연합(EU)입니다. 2021. 4. 21. EU집행위(European Commission)는 인공지능 기술 개발 및 활용에 대한 신뢰, 기본권 및 사용자 안전을 보장하기 위하여 인공지능법(Artificial Intelligence Act, 이하 "유럽 인공지능법")을 제안하였습니다. 이후 몇 번의 수정을 거쳐 2년 뒤인 2023. 6. 14. 유럽의회는 유럽 인공지능법을 가결하였고, 마지막 입법 절차인 유럽의회와 EU집행위 및 EU 회원국이사회 간 3자 협상을 남겨두고 있습니다. EU집행위는 본 법안에 대한 시행을 2023년 말로 계획하고 있어 곧 인공지능법이 시행될 것입니다.




유럽 인공지능법은 인공지능시스템을 아래와 같이 4단계로 구분하여 의무를 차등 부과하는 것을 주요 내용으로 합니다.

금지된 인공지능

고위험 인공지능

제한된 위험 인공지능

최소 위험 인공지능


인공지능시스템 분류 (출처: Telefonica)

(1) 금지된 인공지능

EU의 가치, 인간의 존엄성, 자유와 평등, 민주주의, 기본권을 침해하고 사람들의 안전, 생계 및 권리에 대한 명백한 위협으로 간주되는 인공지능시스템은 금지됩니다.

i) 킬러로봇의 인공지능시스템, ii) 인공지능을 통해 인간의 행동, 의견 또는 결정을 조작하여 신체적·정신적 위험을 가져올 수 있는 인공지능시스템, iii) 경찰등이 공개된 장소에서 실시간으로 안면인식 등 생체정보를 활용하여 신원확인을 하는 인공지능시스템은 (특별한 예외 규정이 없는 한) 사람들의 안전, 기본권 등을 명백히 위협하기 때문에 인공지능법에 따라 금지되는 것입니다.


(2) 고위험 인공지능

고위험 인공지능은 유럽 인공지능법이 규제하고자 하는 가장 주요한 타깃 시스템에 해당됩니다.


고위험 인공지능시스템은 개인의 생명, 신체에 대한 안전과 밀접한 관련이 있는 제품에 적용되는 인공지능시스템, 개인에 대한 평가를 수반하는 경우를 비롯하여 기본권에 중요한 영향을 미칠 수 있는 인공지능 시스템을 가리킵니다. 즉, 사람의 생명과 건강을 위험에 빠트릴 수 있는 중요 인프라(교통수단 등), 교육 및 전문과정에 대한 접근을 결정할 수 있는 교육 또는 직업훈련(시험채점 등), 제품의 안전 구성요소(로봇보조수술의 인공지능 적용 등), 고용·직원관리(채용절차를 위한 이력서 분류 등), 국민의 기본권을 침해할 수 있는 법 집행(증거의 신뢰성 평가 등), 실시간 또는 사후적으로 사람의 생체정보를 활용하여 신원확인을 수행하는 경우 등이 고위험 인공지능에 해당됩니다.


고위험 인공지능시스템에 해당한다면 i) 위험관리를 위한 시스템을 구축하여야 하고, 고품질의 데이터를 사용해야 하며, 법률 준수사항에 대한 기술문서를 작성하고, 로그기록을 저장해야 하고, 사용자가 고위험 인공지능시스템의 결과물이 어떻게 만들어지는 이해하고 적절히 사용할 수 있도록 설계·개발되어야 하며, 사람이 효과적으로 감독할 수 있도록 설계되어야 하는 등의 의무를 준수해야 하며, 시장에 출시하거나 서비스 제공 전에 인공지능시스템이 법률의 요구사항을 준수하고 있다는 것을 보장하는 적합성 평가를 수행하여야 합니다. 또한, ii) 공개적으로 사용가능한 EU 데이터베이스에 고위험 인공지능시스템을 등록하여 감독당국의 관리를 받아야 합니다.


(3) 제한된 위험 인공지능

금지된 인공지능시스템이나 고위험 인공지능시스템은 아니지만, 명의도용 또는 사기의 위험을 초래할 수 있는 특정 인공지능시스템에는 투명성 의무가 적용됩니다. 즉, i) 인공지능시스템이 개인과 상호작용하도록 구성되어 있는 경우, 공급자는 인공지능시스템과 상호작용하고 있음을 알려야 하고, ii) 인공지능시스템에 개인의 감정인식 또는 생체 인식 분류가 포함된 경우, 사용자는 개인에게 감정인식 시스템이나 분류시스템에 노출되고 있음을 알려야 하고, iii) 인공지능시스템이 딥페이크(Deepfake)로 보이는 이미지, 오디오 또는 비디오 콘텐츠를 생성하거나 조작하는 경우, 사용자는 콘텐츠가 인위적으로 생성 또는 조작되었음을 공개해야 합니다.


(4) 최소 위험 인공지능

인공지능 지원 비디오 게임, 스팸 필터 등 권리 침해 또는 안전에 대한 위험이 최소화되거나 거의 없는 인공지능시스템으로 규제되지 않습니다.




한편, 유럽의회에서 최근 들어 이슈가 되고 있는  ChatGPT와 같은 거대언어모델 혹은 생성형 인공지능을 포함하는 파운데이션 모델(Foundation Model)에 대한 의무를 추가하여 인공지능법안을 가결하였습니다. 

파운데이션 모델에 대한 규제는 기존의 인공지능시스템 분류에 포함시키지 않고 별도의 의무 조항으로 구성되어 있습니다. 인공지능법은 ChatGPT와 같은 생성형 인공지능의 투명성과 안전성을 강화하기 위하여 문자, 이미지, 영상 등을 생성하는 인공지능시스템에 사용되는 파운데이션 모델에 인공지능시스템 활용 사실을 사용자에게 알릴 의무, 위법한 콘텐츠 생성을 방지할 수 있도록 모델을 설계·개발·학습할 의무를 부과하고 있습니다. 또한, 생성형 인공지능의 저작권 침해 등이 문제 됨에 따라 파운데이션 모델이 저작권에 의해 보호되는 데이터를 학습한 경우, 이에 대한 정보를 문서화하여 공개하고, AI가 생성한 콘텐츠의 창작자가 인간이 아님을 명시하도록 하고 있습니다.




이외에도 유럽 인공지능 법은 인공지능 혁신을 촉진하기 위하여 규제샌드박스를 마련하거나 중소사업자를 지원하기 위한 규정 등을 두고 있습니다. 


무엇보다도 인공지능법은 유럽 개인정보보호법(GDPR, General Data Protection Regulation)과 유사하게 EU 역외에 위치하지만 EU에 서비스를 제공하는 공급자에게도 법이 적용될 수 있도록 하는 역외적용 규정, 법 위반 시 최대 전 세계 연간 매출액의 6%의 벌금을 부과할 수 있는 GDPR보다 강력한 처벌 규정도 마련하고 있습니다.


GDPR이 발효된 후 한국을 포함한 전 세계의 많은 나라들이 이와 유사한 개인정보보호법을 제·개정한 점을 보면, 인공지능에 대한 최초의 규제인 유럽 인공지능법은 많은 나라들이 벤치마킹하여 유사하게 도입할 것으로 예상됩니다. 이미 한국은 2023. 8. 8. '인공지능 책임 및 규제법안(안철수의원 대표발의)'이 발의되었고, 본 법안은 유럽 인공지능법과 상당 부분 유사한 구조를 갖추고 있는 상황입니다.


따라서, 인공지능을 개발하거나 서비스하는 국내외 기업들은 유럽 인공지능법을 지속적으로 모니터링하고 법안의 최종 시행 여부, 하위법령의 제·개정 여부 등을 확인하고 이를 준수하기 위해 노력해야 할 것입니다. 특히, 현재 개발하고 있는 인공지능시스템에 대해 법에서 정한 위험도에 따라 미리 평가하여 설계 단계에서부터 법률을 준수할 수 있는 체계를 갖추어야 합니다. 그렇지 않으면 애써 개발한 인공지능시스템을 규제에 의해 출시조차 하지 못하거나, 시장에 출시하더라도 법률 미준수로 인해 막대한 과징금을 부과받을 수 있기 때문입니다.




유럽 인공지능법안의 내용을 살펴보니, 본 법안은 "인간중심적인 가치"에 중점을 두고 있음을 이해할 수 있었습니다.


인공지능법은 금지된 인공지능시스템을 규정하여 킬러 로봇 등 위험한 인공지능으로부터 인간의 신체적·정신적 안전을 보호하고자 하며,

인공지능법은 인공지능시스템의 위험도를 분류하여 그에 맞는 투명성 의무, 표시 의무, 인간이 인공지능을 감독하도록 하는 등의 의무를 부여함으로써 인간이 인공지능에 의해 조종당하거나, 인공지능에 의해 평가되거나, 감시되거나, 혹은 생성형 인공지능이 만든 콘텐츠에 속지 않도록 하여 인간이 기계에 의해 지배당하지 않도록 인공지능을 규제하고 있습니다.


인공지능에 의해 발생할 수 있는 부작용이 유럽 인공지능법에 의해 완전히 해소될 수는 없겠지만, 인공지능을 개발하는 수많은 기업들이 인공지능법을 준수하면서 왜 입법자들이 인공지능을 규제하려 하고, 무엇을 어떻게 규제하고 있는지를 생각해 보시기를 바랍니다. 인공지능법의 입법목적과 세부내용을 이해한다면 작게는 법률리스크 관리할 수 있을 것이고, 더 나아가서는 사회가 진정으로 원하는 인간 중심적 가치를 둔 인공지능을 개발할 수 있는 계기가 될 수 있을 것입니다.



<참고자료>

지능정보사회 법제도 이슈리포트: EU 인공지능법(안)의 주요 내용과 시사점(한국지능정보사회진흥원 NIA, 2021)

유럽헌법연구 제38호: 유럽연합 '인공지능법안'의 주요 내용과 시사점(홍석한, 2022)

법률신문: EU AI 법안의 EU 의회 수정안 주요 내용

작가의 이전글 화성에서 온 T, 금성에서 온 F
작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari