국제 AI 안전 보고서, 섹터를 뛰어넘는 국제협력, AI 윤리의 진화
5월 22일, AI 서울 정상회의와 AI 글로벌 포럼에 참가했다. 하루가 어떻게 지나갔을지 모를 정도로 바빴다. 모든 세션에 참여할 수 없었고, 참여한 회의의 모든 내용을 기록할 수도 없었다. 시간이 더 지나 머리 속의 기억이 사라지기 전에 새롭게 얻은 배움과 나의 생각들을 정리하고 싶다.
글로벌 AI 규범을 논의하는 플랫폼은 생각보다 다양하다. OECD는 2019년 AI 원칙(OECD AI Principles)을 발표하고 OECD.AI, GPAI(Global Partnership on AI) 등을 통해 국제적인 논의를 이끌어 가고 있으며, UNESCO는 2021년 193개국 만장일치로 AI 윤리 권고(Recommendation on the Ethics of AI)를 채택한 뒤 매년 글로벌 AI 윤리 포럼을 개최하며 회원국과 기업의 권고 이행 현황을 점검하고 있다.
G7은 2023년 히로시마 AI 프로세스(Hiroshima AI Process)를 채택했는데, 이 과정을 주도한 일본은 올해 5월 OECD에서 히로시마 AI 프로세스 우호그룹을 결성하고 글로벌 AI 규범 논의를 주도하기 위해 노력하고 있다. UN은 작년 10월 AI 고위급 자문그룹(UN AI Advisory Body)을 결성하고, 논의 결과를 바탕으로 올해 9월 개최될 UN 미래정상회의(Summit of Future)에서 디지털 행동규약을 발표할 예정이다.
그리고 또 하나의 글로벌 AI 규범 논의 플랫폼인 AI 안전성 정상회의(AI Safety Summit)가 2023년 시작됐다. 첫 번째 회의를 영국이 개최했지만 그 배경을 좀 더 살펴보면, 글로벌 AI 규범을 주도하고자 하는 미국이 직접 전면에 나서기 부담스러운 상황에서 자신의 우방국들을 중심으로 매년 AI 안전성 정상회의(AI Safety Summit)을 돌아가면서 개최하도록 하고, 참여 국가들 중심의 글로벌 AI 규범을 만들려는 의도가 있는 것으로 보인다.
UN, UNESCO, OECD 등 AI 규범을 논의하고 있는 국제기구가 있음에도 불구하고, AI 안전성 정상회의(AI Safety Summit)라는 새로운 다자협의체가 만들어졌다는 사실은 여러가지 생각해볼 꺼리들을 던져준다.
AI 규범을 논의하는 국제기구가 갖고 있는 한계는 무엇일까?
국제기구의 한계를 기존의 틀 안에서 극복할 수는 없었을까?
AI Safety Summit은 누구의 이해를 가장 크게 반영하게 될까?
매년 주최국을 바꾸어가며 개최되는 AI Safety Summit의 효과성과 지속가능성을 담보할 수 있을까?
국제기구와 AI Safety Summit 간의 논의를 상호보완적이며 시너지가 날 수 있도록 하기 위해서는 어떻게 해야 할까?
이런 물음들 때문일까? AI 안전성 정상회의(AI Safety Summit)를 바라보는 시선은 다양하다. 앞서 이야기한 것처럼 AI 규범을 논의하는 국제기구가 존재함에도 불구하고 새로운 협의체를 만든 것은 누군가의 의도가 있는게 아닌가 하는 의구심부터, 실천은 담보되지 않는 또 하나의 말잔치(NATO: No Action, Talk Only)에 불과하다는 비판도 있다. 하지만 분명 인정해야 할 점은 AI 안전성 정상회의(AI Safety Summit)가 전 세계 국가 정상들과 글로벌 AI 기업, 학계, 시민사회, 언론 등 각계각층에게 AI의 위험성에 대한 경종을 울리고, 그들의 관심을 이끌어내는데 일정 부분 성공했다는 점이다. 문제는 AI 안전성 정상회의(AI Safety Summit)가 앞으로 어떤 구체적인 약속을 만들어내고, 그것들을 실천으로 옮길 수 있는 동력을 어떻게 확보해낼 것인가에 있다고 할 수 있다.
이번 AI 서울 정상회의는 2023년 영국에서 개최된 제1차 AI 안전성 정상회의(AI Safety Summit)의 이행현황을 점검하고, 2025년 프랑스에서 개최되는 제2차 정상회의(프랑스 AI Action Summit)를 준비하기 위한 성격을 갖고 있었다. 글로벌 주요국들이 자국의 이익을 반영하는 글로벌 AI 규범을 만들려는 경쟁이 한창인 상황 속에서, 한국도 자국의 목소리를 높일 수 있는 기회를 마련한 점은 평가해야할 부분이라고 할 수 있다.
제1차 AI 안전성 정상회의(AI Safety Summit)에서는 28개국이 '블레츨리 선언(Bletchley Declaration)'에 합의했다. 블레츨리 선언은 크게 두 가지 핵심적인 내용을 담고 있다. 첫째, 국제적 수준에서 AI 위험을 식별하기 위한 증거 기반의 과학적 이해를 증진하고, 둘째, 국가별 상황에 따라 규제 등의 방식이 다를 수 있다는 점을 인정하면서 상호협력(AI 평가지표, 테스트, 연구개발 등)하기로 했다는 점이다. 블레츨리 선언의 이행을 위해 지난 6개월 동안 '국제 AI 안전 보고서(International Scientific Report on the Safety of Advanced AI)'가 작성되었으며, 영국과 미국, 일본 등은 AI 안전 연구소(AI Safety Institute)를 설립했다.
AI 서울 정상회의는 국제 AI 안전 보고서의 초안(Interim Report)을 검토하고, 국가별로 설립되었거나 설립 예정인 AI 안전 연구소 간의 협력 그리고 AI 안전을 위해 노력하고 있는 국제기구와 정부, 기업, 학계, 시민사회 간의 협력 방안을 논의하는 것이 주요 아젠다였다. 더불어, AI의 혜텍을 모두가 누릴 수 있도록 하기 위해 '포용성(Inclusivity)'을 핵심 의제 중 하나로 새롭게 포함시킨 점은 제1차 AI 안전성 정상회의(AI Safety Summit)과 다른 AI 서울 정상회의만의 차별점이자 성과였다.
국제 AI 안전 보고서는 인류가 AI의 혜택을 제대로 누리기 위해서는, AI의 잠재적 역량과 위험을 정확하게 파악하는 것이 우선적으로 필요하다는 취지에서 만들어졌다. 요슈아 벤지오(Yoshua Bengio) 교수의 주도 아래 전 세계 70여 명의 학계 전문가가 참여하여 만들어진 이번 보고서는 국제적이고 독립적이며 포용적인(international, independent and inclusive) 방식으로 작성한다는 원칙을 갖고 작성되었다.
영국의 AI 안전 연구소가 작성 과정에서 사무국 역할을 담당했으며, 전 세계 AI 정책 입안자들에게 AI의 역량과 위험에 대한 과학적 증거들을 제공하는 것이 이번 보고서의 목표였다. 이번에 공개된 보고서는 중간 보고서 성격으로, AI 서울 정상회의를 통해 수렴된 의견 뿐만 아니라 앞으로 기업, 시민사회 등의 피드백을 종합하여, 2025년 프랑스 AI Action Summit에서 최종 보고서를 발표할 예정이다.
보고서는 기본적으로 범용 AI는 분명 인류에게 엄청난 혜택을 가져올 것이라고 말한다. 단, 이를 위해서 AI는 반드시 적절하게 관리, 감독되어야 한다는 점을 전제하고 있다. 보고서가 제시하고 있는 AI의 핵심적인 위험은 다음의 세 가지다.
사용자의 악용에 의한 위험: 여론 조작, 허위조작정보, 딥페이크, 사이버 범죄 등
오작동에 의한 위험: 제품 안전성 이슈, 편향(인종, 성별 등), 통제권 상실
시스템적 위험: 노동 시장(일자리), AI 격차(불평등 심화), 시장 독과점, 환경 파괴, 프라이버시, 저작권
보고서는 AI의 새로운 위험을 제시했다기 보다는, 그동안 제기되어 왔던 모든 AI 윤리 이슈들을 빠짐없이 정리하고자 노력한 것으로 보인다. 보고서는 위에 언급한 사용자의 악용에 의한 위험, 오작동에 의한 위험, 시스템적 위험을 줄일 수 있는 기술적 방법은 존재하지만 모두 그 한계가 명확하다는 점을 지적한다. 또한, 급속도로 발전하는 AI 기술의 불확실성이 크다는 점에서, AI에 대한 더 높은 수준의 이해가 필수적이라는 점 역시 강조하고 있다.
보고서의 결론은 범용 AI의 미래는 지금 이 시대를 살아가고 있는 우리의 선택에 달려있다는 열린 결말로 마무리된다. 어쩌면 무책임하고 당연하게 들릴 수 있는 뻔한 결말이라고 할 수 있다. 하지만 과연 우리는 AI와 함께 할 미래 사회의 모습을 선택할 준비가 되었을까? 정작 우리 스스로 AI와 함께 할 미래 사회의 구체적인 모습을 그려본 적은 거의 없기 때문에, 어디서부터 어떻게 무슨 선택을 해야할지 막막한 것이 현실이 아닌가 싶다. 이 질문은 앞으로 많은 사람들을 당혹스럽게 할 것이란 생각이 들었다.
국제 AI 안전 보고서를 논의하는 과정에서는 기후변화에 관한 정부간협의체인 IPCC(Internatinoal Panel on Climate Change)의 기후보고서 사례가 여러 차례 언급되었다. 기후보고서가 기후변화에 대한 논쟁 과정에서 과학적 증거를 제시함으로써 불필요한 논쟁을 줄여준 것처럼, 국제적으로 AI 위험에 대한 공유된 이해 수준을 높이기 위해 정기적인 과학 보고서의 발간이 필요하다는 취지에서였다.
한 가지 흥미로운 점은 회의 참가자 중 그 누구도 AI의 위험을 부정하는 사람은 없었다는 것이다. 국적이 달라도, 정부/기업/학계/국제기구 등 소속은 다를지라도 모두가 AI의 위험에 대해 진지하게 우려하고 있었다. 문제는 서로가 생각하는 AI 위험의 내용과 수준 그리고 그 위험에 대응하는 방식에 대한 이견이었다.
이러한 차이를 좁히기 위한 대안으로 제시된 의견 가운데 개인적으로 가장 공감이 되었던 것은 AI의 위험을 좀 더 정교하게 카테고리화 할 필요가 있다는 주장이었다. 지금까지 AI 위험이라고 하면 EU AI Act가 제시하고 있는 ▲ 수인불가 위험(Unacceptable Risk), ▲고위험(High-risk), ▲ 제한적 위험(Limited risk), ▲ 최소 위험(Low or minimal risk) 혹은 이번 국제 AI 안전 보고서가 분류한 AI 기술의 악용(사용자 측면), AI 기술의 불완전성(기업 측면), AI 기술의 시스템적 충격(사회 측면)을 생각하는 것이 일반적이었다.
그러나 AI 위험을 단기, 중기, 장기의 시간 축으로 다시 구분하여 인류가 시급히 함께 대응해야 할 영역을 명확히 구분하고, 지금 당장은 영향이 없어 보이지만 그 영향이 중장기적으로 발생하기 때문에 지금 우리가 자칫 놓치는 이슈는 없는지 다시 한번 살펴볼 필요가 있다는 주장은 우리 모두가 함께 귀기울일 필요가 있다고 느껴졌다.
UN 지속가능발전목표(Sustainable Development Goals)의 5P(아래 그림) 측면에서 AI가 미치는 영향을 새롭게 살펴봐야 한다는 주장도 인상적이었다. 현재 AI 위험에 대한 논의는 대부분 사람(People) 중심으로 이루어지고 있지만, 지구(Planet)와 평화(Peace), 번영(Prosperity), 협력(Partnership)의 관점에서 AI가 미칠 수 있는 잠재적 위험은 무엇이고, 그러한 문제들을 어떻게 식별하고 개선할지에 대해서도 구체적인 논의가 필요하다는 생각이 들었다.
Summit/Forum의 참가자 대부분이 한 목소리로 필요성을 외친 또 다른 이슈는 국가와 섹터를 넘어서는 국제협력이었다. 상이한 정치, 경제, 사회문화적 배경을 갖고 있는 국가들이 서로 다른 규제 환경을 갖고 있는 것은 어쩌면 당연한 일이다. 따라서 단기간 내에 국제적으로 통일된 하나의 AI 규범을 만들어내는 것은 쉽지 않을 일일 수도 있다. 하지만 최소한 국가 간의 AI 규범을 어떻게 조화롭고 상호 호환성을 갖도록 만들 것인가에 대한 논의와 협력은 필수적이라는 것이 논의 테이블에 모인 참가자들의 공통된 의견이었다.
실제로 한국과 영국, 미국, 일본 등은 각국의 AI 안전 연구소를 통해 AI 안전 평가나 테스트 등의 분야에서 상호 인증체계를 마련하는 아이디어 등을 갖고 있었다. 하지만 여기서 생각해봐야할 문제가 있다. 서로의 정치 체제와 역사문화적 배경에 공통점이 많은 국가들은 상대적으로 쉽게 각국의 AI 규범 간 호환성을 만들어낼 수 있을 것이다. 그러나 체제와 이념이 다른 국가들은 어떨까? 서로 다른 정치체제와 이념을 갖고 있는 국가들을 하나의 논의 테이블에 앉도록 하고, 상호 호환성을 갖는 혹은 나아가 공통의 AI 규범을 만들어낼 수 있도록 하기 위해서는 어떤 제도와 체계가 필요할까?
AI 안전성 정상회의(AI Safety Summit)는 미국, 영국, 한국, 프랑스, 일본 등이 주도하고 있어, 중국과 러시아 등의 참여는 상대적으로 소극적인 상황이다. 자칫 AI 규범이 글로벌 수준으로 통합되는 것이 아니라 블럭화되지 않을까라는 우려가 생기는 이유다. 빠르게 발전하는 AI 기술 속도를 고려할 때, 글로벌 차원의 AI 규범이 제때 마련되지 못한다면 그 피해는 국경을 뛰어넘어 전 세계 모든 사람들에게 돌아갈 수 있다. AI 안전성 정상회의(AI Safety Summit)가 선을 뛰어넘는 협력을 위한 새로운 시도를 하거나, UN 등 국제기구가 좀 더 창의적인 이니셔티브를 만들어내야 하지 않을까라는 생각이 들었다.
정부는 자원과 규제 권한을 가지고 있지만 AI 기술력이 부족하고, 기업은 AI 기술력과 자본을 가지고 있지만 규제 권한이 없으며, 학계는 새로운 아이디어와 연구 역량은 가지고 있지만 인프라와 자본이 부족하다. 국가 대 국가의 협력만으로 글로벌 AI 규범을 만드는데 한계가 있다면, 국가를 뛰어넘어 국제기구와 기업, 학계, 시민사회가 서로의 자원과 경험을 공유하고, 새로운 AI 규범의 실천약속을 만들어 그 약속의 이행현황을 모니터링할 수 있는 자발적인 매커니즘을 만들 수 있다면 어떨까? 말이 되든 되지 않든, 지금은 더 많은 상상과 아이디어가 필요한 때가 아닐까 싶다.
지난 몇 년 간 내가 관찰한 AI 윤리의 최대 화두는 공정성이었다. AI가 인종과 피부색, 성별, 연령, 출신 및 거주 지역 등에 따라 사람을 차별하거나 편향된 답변을 만드는 문제들이 국내외에서 지속적으로 이슈가 되어 왔기 때문이다. 덕분에 공정성 이슈는 AI 윤리의 대명사처럼 이야기되곤 했고, 많은 AI 기업들은 AI가 특정 그룹을 차별하거나 편향된 답변을 생성하지 않도록 하기 위해 노력해왔다. 공정성은 여전히 중요한 AI 윤리 이슈임에 분명하다. 하지만 세상은 늘 새롭게 부상하는 이슈에 더 큰 관심을 보인다는 점에서 공정성에 대한 관심은 상대적으로 줄어들고 있는 것으로 보인다.
최근 들어 새롭게 부상하고 있는 AI 윤리 분야의 화두는 단연코 안전성이다. 인류가 예상하고 대응하기 어려운 수준의 빠른 속도로 AI가 발전할 수 있다는 우려와 함께, EU는 최근 고위험 AI 등을 규제하는 EU AI법을 채택했고, 작년 처음 개최된 AI 안전성 정상회의(AI Safety Summit)는 올해 AI 서울 정상회의(AI Seoul Summit)으로 이어지며 전 세계의 주목을 받았다. 또한, 미국과 영국, 일본은 AI 위험 관리를 전담할 AI 안전 연구소를 설립했고, 한국 역시 올해 말까지 AI 안전 연구소를 설립할 계획이다. AI의 ‘위험 관리’와 ‘안전한 사용’이 새로운 키워드로 부상하고 있음을 알 수 있는 대목이다.
그렇다면 앞으로 AI 윤리 화두는 무엇이 될까? 아마도 포용성과 지속가능성이 아닐까 싶다. 특히, 이번 AI 서울 정상회의의 세 가지 아젠다(혁신, 안전성, 포용성) 중 하나로 포함된 포용성은 AI 기술이 발전을 거듭해갈수록 그 혜택을 누리는 사람과 그렇지 사람들 간의 격차가 더욱 빠르게 벌어질 수밖에 없다는 점에서 미래 AI 윤리 이슈의 중심에 서게 될 가능성이 크다. 지금 이 순간 전 세계 인구의 약 30% 이상인 26억 명의 사람들은 인터넷에 접속조차 할 수 없는 형편이고, 여전히 우리나라 안에서도 AI 서비스를 사용해보지 않은 사람이 적지 않다는 점은 우리 모두에게 여러가지 과제들은 던져준다고 할 수 있다.
그 중요성에 비해 상대적으로 가장 적은 관심을 받는 AI 윤리 이슈는 지속가능성이다. AI 서울 정상회의 개회식에서 기조연설을 한 앤드류 응(Andrew Ng) 교수는 기후변화에 대응할 수 있는 AI 기술의 가능성을 소개하며 지속가능성 이슈를 수면 위로 끌어올리기 위해 노력하는 모습을 보여주었다.(적어도 나에게는 그렇게 느껴졌다) 하지만 이번 Summit/Forum 논의 중 지속가능성 이슈가 언급한 적은 거의 없었다. 이번 회의 뿐만 아니라 지금까지 직간접적으로 참여한 국내외 AI 관련 회의에서 지속가능성 이슈가 주요 아젠다로 설정된 경우는 거의 보지 못했다. 어쩌면 기후변화 이슈가 그래왔듯, 우리 모두 AI의 지속가능성이라는 불편한 진실은 애써 외면하고 있는 것은 아닌지 모르겠다는 생각이 들었다.
그럼에도 불구하고 이번 Summit/Forum을 통해 국제적인 AI 윤리 논의가 진화하고 있음을 확인할 수 있어서 기뻤다. 단순히 AI 윤리 논의의 폭이 넓어지고 있을 뿐만 아니라, 각 이슈를 다루는 논의의 깊이 역시 상당한 수준이었다. 특히, 단순히 AI 위험을 식별하고 개선하려는 소극적 AI 윤리를 넘어, AI 기술을 활용하여 지구적/사회적 문제를 해결하려는 적극적 AI 윤리로 나아가려는 움직임이 커지고 있다는 점에서 AI 윤리 논의의 발전을 느낄 수 있었다. 역사는 진보하고 있고, AI 윤리도 앞으로 나아가고 있다.
이 글은 지극히 주관적인 관찰, 감상임을 밝힙니다.