내부 고발자의 역할과 중요성
최근 오픈AI(OpenAI), 구글(Google), 앤트로픽(Anthropic)과 같은 주요 AI 기업의 전·현직 직원들이 공개서한을 발표했습니다. 이들은 고급 AI가 심각한 위험을 초래할 수 있다고 경고하며, AI 산업에 대한 더 강력한 감독과 내부 고발자 보호 조치를 촉구했습니다.
서한에서는 AI 기술이 인류에게 전례 없는 혜택을 제공할 잠재력이 있다고 언급합니다. 그러나 동시에, 이러한 기술들이 현재의 불평등을 더욱 심화시키고, 조작과 허위정보를 확산시키며, 자율 AI 시스템의 통제 상실로 인류에게 큰 위협을 초래할 수 있는 가능성도 포함된다고 경고합니다.
서한에 따르면, AI 기업들은 강력한 재정적 이유로 인해 진정한 감독을 피하려고 합니다. 현재의 기업 운영 방식만으로는 이러한 문제를 해결하기에 충분하지 않다고 지적합니다. "AI 기업들은 자사 시스템의 능력과 한계, 보호 조치의 적절성, 다양한 위험 수준에 대한 상당한 비공개 정보를 보유하고 있습니다. 그러나 이들은 정부와 일부 정보를 공유할 의무가 약하고, 시민 사회와는 전혀 공유하지 않습니다." 서명자들은 이렇게 주장합니다.
서한은 AI 부문에서 내부 고발자 보호 조치를 촉구합니다. 현재와 전직 직원들만이 대중에게 이러한 기업들을 책임지게 할 수 있는 몇 안 되는 사람들입니다. "일반적인 내부 고발자 보호 조치는 불법 활동에 초점을 맞추고 있지만, 우리가 우려하는 많은 위험은 아직 규제되지 않았습니다." 이에 따라 여섯 명의 현·전직 오픈AI 직원이 익명으로 서명했고, 다섯 명의 전직 오픈AI 직원은 실명으로 서명했습니다.
회사 비판을 금지하는 계약을 체결하거나 시행하지 말 것.
현재 및 전직 직원들이 회사의 이사회, 규제 기관, 관련 독립 전문가 그룹에 위험 우려를 제기할 수 있는 익명 및 검증 가능한 방법을 제공할 것.
공개 비판 문화를 지지하고, 전·현직 직원들이 회사의 기술에 대한 위험 우려를 대중, 이사회, 규제 기관 또는 관련 독립 전문가 그룹과 공유할 수 있도록 할 것.
다른 조치가 실패한 후에도 위험 관련 기밀 정보를 공유한 현재 및 전직 직원에게 보복하지 말 것.
AI 연구의 아이콘인 제프리 힌튼, 요슈아 벤지오, 스튜어트 러셀은 공개서한을 지지하고 있습니다. 그러나 이들의 AI 위험에 대한 견해는 업계에서 논란의 여지가 있습니다. 다른 저명한 AI 연구자인 얀 르쿤은 이들을 공포 조장자로 비판합니다.
오픈AI는 AI 안전성 논쟁의 중심에 남아 있습니다. 퇴직 직원들이 부정적인 발언을 하지 못하게 하는 비밀 유지 조항으로 비판받아 온 오픈AI는 이 조항을 제거하는 과정을 진행 중입니다. 또한, 오픈AI는 설립 후 1년 만에 장기 AI 위험 관리팀을 해체했습니다. 팀 리더 얀 라이키는 오픈AI의 안전 문화와 프로세스가 제품 개발과 성능에만 집중하는 것에 뒤처졌다고 설명하며 사임했습니다. 그는 이후 경쟁사 앤트로픽에 합류했습니다.
최근 오픈AI는 익명의 무결성 핫라인을 개설하고, CEO 샘 알트먼이 멤버로 참여한 새로운 안전 및 보안 위원회를 구성했습니다. 오픈AI 대변인은 CNBC와의 인터뷰에서 "이 기술의 중요성을 감안할 때 철저한 논의가 중요하다는데 동의하며, 전 세계 정부, 시민 사회 및 다른 커뮤니티와 계속해서 소통할 것"이라고 말했습니다.
안전에 대한 경고와 조심은 아무리 강조해도 지나치지 않습니다. 최근 결정된 안전 보안 위원회도 모두 오픈AI의 내부자로 구성되었고, 이미 인간의 지능을 넘어선 인공지능이 자기 선택권과 행동력을 갖추게 되면 단순히 공포 조장자로 치부할 문제가 아니게 됩니다.
보이스 피싱조차 막지 못하는 이 사회가 AI가 적용된 무기와 기술을 적절히 통제할 수 있을지에 대한 의문은 여전히 남아 있습니다. 안전에 대한 경각심을 잃지 않고, 지속적으로 감시하고 개선해 나가는 노력이 필요합니다.