brunch

You can make anything
by writing

C.S.Lewis

by 김홍열 Oct 21. 2024

캘리포니아 주지사의 결단 의미

김홍열의 디지털 콘서트

올해 캘리포니아주 사회적 이슈 가운데 가장 논쟁적 사안이었던 ‘안전하고 안전한 최첨단 인공지능 모델을 위한 혁신법, Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, SB 1047’이 최종적으로 폐기되었다. 법안명에서 알 수 있는 것처럼 ‘안전하고 안전한 인공지능’을 강조한 이 법안은 올해 2월 발의 직후부터 많은 사회적 관심을 받았고, 몇 차례 수정을 거쳐 지난 8월 주 상·하원을 압도적 찬성으로 통과됐다. 공표되기 위해서는 주지사 개이빈 뉴섬의 동의가 필요했는데 지난 29일 개이빈 뉴섬이 거부권을 행사하는 바람에 법률로 이어지지 못하고 폐기되었다. 


REUTERS/연합뉴스 자료 사진


이 법안의 통과 여부가 여러 사람들의 관심을 끈 이유 중 하나는 만약 통과되면 가장 강력한 AI 규제 법률이 될 것으로 판단했기 때문이다. 이 법안 이전의 법률은 이미 만들어진 인공지능 프로그램을 악용한 자를 처벌하는 것에 초점이 맞춰져 있었다. 즉, AI 개발자의 의도와 상관없이 AI 모델을 악용하는 자는 처벌할 수 있게 되어 있다. 그러나 새로 제안된 법안은 악용될 가능성이 있는 AI 모델을 개발한 자를 제재할 수 있게 되어 있다. 다소 위험해 보이는 이 법안은, AI를 이용해 어떤 사고를 일으킬 경우 사후 처벌로 막기에는 한계가 있기 때문에 개발자가 설계 단계부터 예상되는 미래의 위험을 없애도록 최선을 다해야 한다는 취지에서 입안되었다.  

논란의 시작은 당연히 AI 전문가 그룹에서 나왔다. AI 분야 세계적 권위자인 스탠퍼드 대학교 컴퓨터과학 교수 페이페이 리도 그중 한 사람이다. 그는 “인공지능 개발자가 자신이 만든 모델이 어떻게 사용될지 예측하는 건 현재 기술상 불가능하다”라며, 개발자에게 자신이 만든 모델의 오용 가능성을 방지해야 한다는 의무를 부과한다면 많은 개발자가 모델을 공개하지 않고 비공개로 유지하게 되어, 오픈소스 커뮤니티와 기술의 발전을 저해할 것이라고 주장했다. 이 법안이 통과되면, 법안이 오픈소스 개발자와 학계 연구자들에게 부정적인 영향을 미쳐 캘리포니아뿐만 아니라 미국 전체의 AI 혁신에도 해를 끼칠 것이라고 경고했다. 


집단적 반대도 이어졌다. 캘리포니아 대학교 7개 캠퍼스 구성원이 연대했다. 인공지능 연구를 하는 학생과 교수들은, SB1047 법안에서 의미하는 인공지능 위험론은 단지 허구에 불과하다고 주장했다. 법안이 과학적으로 근거가 부족한 AI 위험론에 기반하고 있다는 것이다. 오히려 구글 검색을 통해 생화학 무기 정보를 더 쉽게 찾을 수 있다며 SB1047은 인공지능에 대한 공상 과학적 공포에 기반한 법안이라고 주장하고 있다. 반대는 정치권에서도 나오고 있다. 전 하원 의장 낸시 펠로시와 런던 브리드 샌프란시스코 시장 등도 이 법안이 "캘리포니아 기술을 죽이고" 혁신을 저해할 것이라고 언급했다. 


법안 찬성론자들의 입장은 명확하다. 법안을 발의한 민주당 스콧 위너 주 상원의원은 "AI가 통제할 수 없게 되기 전에 대중을 보호하기 위한 법률을 만들 필요가 있다"며 “기술기업들이 자발적으로 채택한 안전 프로토콜을 법률화한 것에 불과하다”고 말했다. 예측 불가한 재해를 방지하기 위해서는 개발자들의 역할이 필요하다는 것이다. 이런 위너의 주장에 동의하는 인공지능 전문가들도 있다. 오픈AI가 직원들에게 AI기술 위험을 규제 당국에 알리지 못하도록 불법적으로 막았다고 내부 고발한 오픈AI 내부고발자들은 “SB1047의 요구 사항은 오픈AI 등 인공지능 개발사들이 이미 스스로 지키겠다고 발표한 것들이다.” 라며 법안을 지지했다. 


개빈 뉴섬 미 캘리포니아주 주지사(AP/연합뉴스)


앞서 언급한 것처럼 법안을 둘러싼 논쟁은 개이빈 뉴섬의 거부권 행사로 일단락되었다. 뉴섬은 잠재적 위험은 AI모델 규모와 상관없이 모든 AI 모델에게 나타날 수 있는데 제출된 법안에서는 이런 고려 없이 '가장 크고 비싼' AI 모델에만 적용되기 때문에 거부권을 행사했다고 밝히고 있다. 예를 들어 큰 AI 모델이 고객 서비스 등 위험성이 낮은 활동을 처리하고, 작은 AI 모델이 의료 기록 등 민감한 데이터와 관련된 결정에 관여하기도 하는데 이런 고려가 없었다는 것이다. 거부권 이유로는 다소 궁색해 보이지만, 정치가인 도지사 입장에서는 나름대로 설득력 있는 이유라고 볼 수 있다. 규모에 상관없이 모든 AI 모델은 위험할 수 있다고 언급했기 때문이다. 


그러나 거부권 행사의 또 다른 의미는 입법을 위해서는 시간이 더 필요하다는 것이다. 찬성과 반대 진영의 주장들, 모두 나름의 설득력이 있다. 예를 들어, AI 채팅 프로그램을 이용해 대화를 하다가 자살한 경우가 있다. 이 경우 문제의 원인이 AI에 있는지 개인에게 있는지 명확하지 않다. 또는 둘 다 모두에게 있는지 모른다. 이유가 어디 있든 이런 일이 더 이상 재발되지 않도록 사회적 합의를 도출할 필요가 있다는 것은 분명하다. 그러나 이런 사례는 비단 AI 모델에만 해당되는 것이 아니다. 신기술이 등장할 때마다 반복된 사회적 과정이다. 과정을 통해서 얻은 교훈은 가급적 법적 규제보다는 사회적 합의에 맡겨야 한다는 것이다. 개발자들 역시 사회 구성원이라 문제 원인이 명확해지면 스스로 솔루션을 찾게 된다. 법적 제재는 가장 나중에 고려하는 것이 좋다는 이런 사례에서 얻은 교훈이다.++

매거진의 이전글 교내 휴대폰 사용 금지는 적절한가
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari