brunch

You can make anything
by writing

C.S.Lewis

by 글겸 Jun 05. 2023

AI, 통제할 수 있는가?

100% 통제 가능한 위험은 없습니다.

1.

지난달 30일 미국 비영리단체 AI 안전센터(Center for AI Safety)에서는 AI가 인류의 미래에 거대한 위협이 될 것이라는 성명서를 발표했다. 이 성명서에는 Open AI社 CEO 샘 알트먼과 CTO 미라 무라티, Google DeepMind CEO 데미스 하사비스, Google AI 릴라 이브라힘과 마리안 로저스, Microsoft CTO 케빈 스콧 등 최고의 AI의 과학자, 연구자 및 기업인들이 서명을 했다. 특히 알트먼은 “AI로 인한 멸종 위험이 있으며 전염병과 핵전쟁 같은 수준의 위협으로 간주하고 이를 전 세계적 우선순위로 두어 위험을 완화해야 한다. “고 언급했다. 듀크대 컴퓨터 과학교수인 신시아 루딘은 CNN를 통해 ‘AI의 부정적인 영향이 핵전쟁만큼 클 수 있다는 추가 증가가 더 필요한가’라고 되물었으며, 캐나다 몬트리올 컴퓨터 과학교수인 요슈아 벤지오는 영국 BBC와 가진 인터뷰에서 ‘AI의 기술이 빠르게 진보할 줄 몰랐다’며  ‘AI 기술을 다루기 위한 자격증 제도 도입과 윤리 교육이 필요하다’라고 강조했다. 사실 이러한 주장은 지난 3월에도 있었다. 미국 비영리단체인 ‘삶의 미래연구소’는 GPT-4 보다 강력한 AI 개발을 최소 6개월 이상 중단해야 한다고 공개 요청했는데 테슬라의 일론 머스크, 애플 공동창업자 워즈니악, 사피엔스의 작가 유발 하라리가 서명했다. 유발하라리는 AI가 민주주의를 위협할 것이라고 방송에서 말할 정도였다.

<출처: 타임지 기사 갈무리>

 하지만 모두가 이런 주장을 반기는 것은 아니다. 빌게이츠는 ‘AI 개발을 일시 중단한다고 해서 문제가 해결되는 것은 아니며 AI기술은 큰 이점이 있다’고 말했다. 과거 AI에 대한 적절한 규제를 언급했던 그의 이러한 답변은 매우 의외로 보인다. 또한 AI 기업 허깅페이스의 연구원인 루치오니 박사도 인간에 대한 AI 위험보다 AI에 대한 편견 또는 거짓정보 확산이 더 심각하다고 주장했으며, 얀 르쾽 뉴욕대 교수도 ‘AI의 중단은 말도 안 되는 일이며 유익하고 유용한 AI 기술을 위험성을 꾸며서 사람들을 두렵게 하고 있다’고 자신의 트위터에서 언급했다.


 정리하면, AI 개발에 대한 편리와 위험을 두고 양쪽이 첨예하게 논쟁 중이다. 그 사이에 있는 대중은 의심과 불안 속에서 위험한 선택과 판단을 내리라고 강요당하는 형국이지만 이렇다 할 반응은 없는 듯하다.



2.

AI 개발을 중단하고 규제를 해야 한다고 주장하는 쪽에서 말하는 구체적은 AI 위험은 무엇일까?


첫째, 일자리이다. 현재는 생산성 향상과 업무효율성 증대를 목적으로 인간이 AI를 보조적인 수단으로 활용하고 있지만, 향후에 생성형 AI와 범용 AI의 가 본격적으로 상용화가 된다면 보다 빠른 속도, 보다 높은 생산성, 보다 좋은 경제성을 이유로 인간은 AI에게 일자리를 빼앗길 것으로 본다.


둘째, 무기화이다. AI 기술이 필요한 국제적 규제와 감독 없이 독재정부 또는 군부에 활용될 경우 사이버 무기화가 우려된다. 지금보다 예측할 수 없는 무차별적인 전쟁이 일어날 개연성이 크다.


셋째, 시스템적 편향이다. AI는 아무런 검증 없이 어느 한쪽의 사실이나 정보를 과도하게 신뢰하거나 무분별하게 채택하여 잘못된 정보와 사실을 주입하여 인간에게 편향을 일으킬 수 있다.


특히나 ‘잘못된 정보’를 통해 AI가 자기 학습을 하게 되는 경우 발생하는 편향성 문제는 더욱 커진다. 이것이 넷째 위험이다. 현재는 편향성을 막고자 개발자가 중간에서 계속 모니터링하고 있지만 현재로서는 어떻게 편향성을 검증하고 모니터링해야 하는지 국제적인 규범조차 없이 기업의 자체적인 판단에 맡긴 형편이다. 만약, 기업가 또는 개발자가 잘못된 개인의 세계관을 AI에게 주입하는 경우를 막을 수 있는 제재는 없다.


다섯 번째는 억압이다. AI가 자칫 많은 사람들을 억압하는 기술로 활용될 수 있다는 위험이다.


여섯 번째, 정부와 기업의 AI독점 위험이다. 독재정부, 군부 등의 비민주주의 국가 또는 독과점 기업이 AI를 독점할 경우 해당 기술을 권력 유지와 자본 수탈에 악용될 수 있다.


문제는 이러한 위험에도 불구하고 대중은 AI규제를 주장하는 쪽의 손을 들어주지 못할 수 있다. 대중 앞에 당장 벌어진 사실이 아니기 때문이다. 그보다는 AI 덕분에 주식이 상승하고, 새로운 항생제가 과거보다 빨리 개발되고 있으며, 마이크로칩으로 불구자를 다시 걷게 하는 사례 등이 더욱더 AI개발을 우호적으로 만들고 있다. 이는 인간의 진화론적 편향에 따른 산물이기 때문에 어찌할 수 없다. 인간은 코 앞의 실재적 위험과 확보된 이익에 반응하도록 진화했다. 오늘을 살아야 내일을 가질 수 있기 때문이다. 따라서, 기후위기 또는 코로나 팬데믹처럼 대중은 그리 심각하게 여기지 않을 것이다. 오히려 누군가 알아서 저절로 해결해 주기를 바라고 있을 수 있다. 내 일이 아니라고 간주하기 때문이다. 따라서, 합리적으로 추론해 보면 대중은 인류의 실존적 위험이 코 앞에 닥쳐야 바뀔 것이다. 쉽게 말하면 AI로 불특정 대중이 생존 위협을 받아야 대중은 깨달을지 모른다. 물론, 나는 그것을 전혀 바라지 않는다.



3.

코넬대학교 공대의 제임스 그리멜만 교수는 인터넷과 소프트웨어를 규제하는 법을 연구하는 사람이다. 그는 2023년에 Internet law: Cases and Problems(인터넷법: 사례와 문제)의 개정판을 출간했다. 이번 개정판은 750 쪽 상당이다. 블룸버그와 가진 그의 인터뷰에 따르면 AI가 인터넷 보다 더 파탄적일 것이기에 AI 법을 만들려면 인터넷법보다 더 두꺼워야 한다고 말했다. 기술 개발의 속도가 법 제정의 그것보다 매우 빠르기 때문에 법은 언제나 뒤처질 수밖에 없다. 현재 미국 바이든 행정부는 AI 권리장전을 위한 청사진이나 위험관리 프레임워크를 만들었지만 법이 아니다. 그래서 법적 구속력이 없다. 당연히 회사가 따를 의무도 없다. 따르면 좋고 안 따르면 어쩔 수 없다. 즉, 현재 미국은 AI를 규제할 권한이 상당히 제한적인 상황이다. 유럽도 별다른 진척은 없는 것 같다. EU 집행위원회가 생성형 AI에 대한 규제 마련에 속도를 내고 있지만 채택이 연내에 되더라도 유예기간을 고려하면 실제 시행까지는 최소 1~2년 소요될 것 같다고 베스타게르 집행위원이 말했다. 일본의 AI전문가로 알려진 아라이 노리코 교수도 일본의 생성형 AI 규제를 주장했지만 일본도 어떠한 규제 움직임이 보이지 않는다. 최근 G7 회의에서 AI 위험성에 대한 인식을 공유한 정도이다. 한국도 마찬가지인 것 같다. 따라서, AI 법률 부재 상황과 인터넷 정보기술 혁명의 어두운 그림자 등을 고려하면 인터넷법 보다 더 두껍고 적절한 AI 법이 필요하고 이를 위해 AI 개발은 잠시 멈춰야 한다는 주장으로 귀결된다.

<출처: 글로벌정부포럼>
4.

일부 IT 규제 반대론자 시각에서는 이 논쟁을 IT 기업의 AI 주도권 싸움으로 보는 것 같다. 하지만 찬성과 반대의 각각 주장과 근거를 차치하더라도 기후위기나 팬데믹 전염병과 같은 인류 위험에 대중이 어떻게 대응했고 어떤 결과를 마주했는지 되짚어보면 쉽게 간과할 일은 아닌 것 같다. AI 기술의 속도가 기후위기보다 빠르고 AI 기술의 영향력은 팬데믹보다 상당하다. 인간에게 4차례의 기술혁명이 있었지만 인간의 멸종위험이란 주제가 테이블에 올라온 적은 없었다. 과거의 기술혁명에 여파는 그저 패러다임이 바뀌는 것뿐이었다. 패러다임 변화에 따른 부수적인 결과물이 있었지만 여전히 인간이 관리가능한 수준으로 통제하고 있었다. 그러한 기술의 통제권을 인간이 아닌 다른 주체에 맡겨본 적도 없었다. 하지만 AI 기술 혁명은 인간에게서 통제권을 빼앗을 수도 있다고 경고한다. 직관적으로 생각해 봐도 인간이 AI를 100% 통제한다거나  AI를 경쟁해서 이길 수 있다는 생각은 무리라고 귀결된다. 여타 다른 영역에서도 규제가 있어도 완벽한 감독과 통제가 안 되는 것이 현실인데 AI는 과연 가능할까? 그렇다면 AI를 통제할 수 있다는 인간의 생각은 오만에 가까운 것이 아닐까?


인간은 통제력을 상실했을 때 패닉에 빠지는 동물이다. 그것을 기억한다면 지금의 경고가 보이지 않는다고 해서 절대 간과해서는 안된다.


- 끝-


※ Cover Image 출처 :  AI 안전센터 홈페이지 갈무리

※ 글과 사진은 동의를 받지 않고 상업적인 용도 사용 및 무단 게시/편집하는 경우 법적 처벌을 받을 수 있습니다.

※ 저작권법 제28조(공표된 저작물의 인용)에 따라 공표된 저작물은 보도, 비평, 교육, 연구 등을 위하여는 정당한 범위 안에 공정한 관행에 합치되게 이를 인용할 수 있습니다

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari