드디어 시작된 AI 규제 논의, 혁신이냐 안정성이냐?
안녕하세요 크립토노트입니다.
어린 시절에 <터미네이터>와 같은 SF 영화를 보면, 고도화된 AI가 지배자로서 세상을 지배하고, 인간은 그 환경 속에서 시름하며 고통받는 모습을 쉽게 볼 수 있었습니다. 영화 <매트릭스>를 대표적으로 들 수 있겠습니다. 그땐 어려서, "그런 세상이 올 수도 있겠다"라고 막연히 생각했었죠. 그러나, 그런 세상이 얼마나 가까이 와있는지 또는 언제쯤 그런 세상이 오려나하고 막연하게 두려워할 뿐, 진지하게 생각하지 않았습니다.
그러나 지금의 AI 발전 속도를 보면, 이제는 슬슬 긴장을 좀 해야 하지 않나?라는 생각도 들기도 합니다. 그도 그럴 것이, AI의 발전 속도는 이젠 두려워질 지경이니깐 말이죠.
모든 상황에서 보편화되어 적용이 가능한 AI를 의미하는 "AGI"를 생각해 볼까요?
많은 전문가들이 AGI의 도래는 곧 "특이점이 온다"라고 해석하고 있습니다. 이 시기가 되면 AI가 보편화되어 우리 삶의 일부로 자리 잡을 것이며, 어쩌면 인류보다 우월한 지구의 지배종이 될 수도 있다고 합니다.
GPT-3이 처음 등장했을 때, 사람들은 AGI의 도래가 80년이 남았다고 생각했다고 합니다. 그러나 그 예상은 완전히 틀렸죠. 지금 예상대로라면, 2026년이면 AGI가 도래할 수도 있다고 하죠. AI의 발전 속도는 우리의 예상을 아득히 넘어서고 있습니다. 전문가들은 "지금이야말로 규제를 가할 수 있는 마지막 시기"라고 이야기합니다. 실제로, 각국 정부에서 AI에 대한 규제 논의가 본격적으로 시작되었죠.
캘리포니아 주 의회는 이러한 AI에 대한 규제의 칼을 처음으로 빼든 지역입니다. AI의 성지이자 실리콘밸리를 품은 캘리포니아가 이러한 움직임을 보였다는 사실은 꽤나 흥미롭죠. AI 규제 법안인 'SB1047'은 다음과 같은 내용을 담고 있습니다.
<안전 책임 의무, 그리고 "Kill Switch">
- 개발 비용이 1억 달러가 넘는 거대언어모델(LLM)에 대한 안전 테스트를 의무화
- 안전 테스트는 제삼자가 진행해야 한다.
- AI 시스템이 많은 사람을 사망에 이르게 하거나, 5억 달러 이상의 피해를 일으키면 개발사가 책임져야 함.
- 오픈소스를 파인튜닝하여 제작한 모델에 문제가 생기면, 본 개발사도 책임을 짐.
- 필요시 AI 모델을 즉시 강제로 중지할 수 있는 ‘킬 스위치’ 설치
해당 법안의 주된 내용은 "개발사가 AI에 대한 책임을 짐"과 "AI에 대한 강력한 통제력 확보"라고 정리될 수 있겠습니다. 개발사에게 강력한 책임을 부여하고, 우리의 생활에 위협을 가할 수 있는 AI의 등장을 막는 법률이죠. AI 개발사들에게 법적인 책임을 부여하는 이 법안은, 'AI 안정성'을 담보할 수 있는 방법이기도 하지만, 한편으로는 혁신을 주도하는 회사들의 발전을 막을 수도 있습니다.
그렇다면, AI 회사와 각종 유명인사들은 해당 법안에 대해서 어떤 의견을 갖고 있을까요?
ChatGPT를 운영하는 OpenAI는 해당 법이 혁신을 가로막을 것이라고 주장합니다.
OpenAI의 제이슨 권 CSO는 "AI 혁명은 이제 그저 시작됐을 뿐"이라면서, 해당 규제는 성장을 위협하고 혁신의 속도를 늦추고, 세계적 엔지니어와 기업가들이 더 큰 기회를 찾아 떠나게 만들 것"이라는 내용의 서한을 보냈죠. OpenAI는 해당 법안의 발의로 진행해 오던 사무실 확장을 보류했습니다.
그에 반해 일론 머스크는 AI에 대해서 초강력 규제가 필요하다고 이야기합니다. 대표적인 친트럼프 인사로 미국 정부에서도 한 자리를 차지하게 된 일론 머스크는, 세간의 예상과는 다르게 AI에 대해서 "문명의 큰 위협이며, 핵탄두보다 위험하다"는 의견을 계속해서 피력해 왔습니다. 그랬던 그가 이제 권력의 중심에 선 만큼, AI와 관련된 규제 역시 더욱 강화될 가능성이 있을 것 같습니다.
결과적으로, 해당 법은 불발됐습니다. 캘리포니아 주지사인 개빈 뉴섬이 거부권을 행사했기 때문이죠.
그가 해당 법안에 대한 거부권을 행사한 이유는 "혁신을 가로막기 때문"과 같은 이유가 아닙니다. 그는 이번 SB1047 법안이 '선의'에 해당하지만, 해당 법안이 현실적인 부분을 정확히 짚어내지 못했다는 점을 이야기했죠. AI 개발사의 규모, LLM의 크기와 같은 양적인 측면에만 집중을 해서, AI가 진정으로 활용되는 그 맥락을 파악하지는 못했다고 판단한 것입니다.
해당 법안의 불발을 두고 많은 이야기가 오가고 있습니다.
누군가는 실리콘밸리의 본 고장인 캘리포니아에서 혁신적으로 기술 규제를 선도할 기회를 놓쳤다고 평가하기도 하지만, 누군가는 오히려 기술의 혁신이 가속화되어야 할 실리콘밸리에서 그런 법안은 적합하지 않다고 말하기도 합니다.
저는 개인적으로는, "보다 적절한 규제"가 필요하지 않을까라는 생각이 들고는 합니다. 개빈 뉴섬의 말대로 SB1047 법안은 양과 규모에 집중하여 AI의 본질적인 부분을 파악하지 못한 부분이 분명히 있었죠. 의료, 바이오 등 AI가 이제야 적용되기 시작할 수많은 industry가 남아있고, AI는 기술 혁신에 집중하고 있는 나머지 그런 부분에 집중을 하지 못하고 있습니다.
이제 산업은 더욱더 발전하고, 다양한 분야에서의 AI 적용은 가속화될 것입니다. 그 안에서 가장 필요한 것은 '인류를 위해 얼마큼의 후생을 제공해 줄 수 있는가?'에 대한 고민이라고 생각합니다. 군사, 작전, 경제와 같은 '돈이 되는 곳' 뿐만 아니라, 의료, 농업 등 사람에게 필요한 분야에 AI가 적용될 수 있도록, 많은 부분에서 고민을 해야 할 것입니다. (물론, 이것은 실리콘밸리의 정치인들에게 가장 중요한 과제라고 봅니다.)