brunch

You can make anything
by writing

C.S.Lewis

by 작은 불씨 May 22. 2024

OpenAI의 슈퍼 얼라인먼트 팀 해체

AGI의 위험 논쟁

최근 블룸버그는 OpenAI가 미래의 고성능 AI 시스템의 안전성을 보장하기 위해 집중했던 슈퍼 얼라인먼트(Superalignment) 팀을 해체했다고 보도했습니다. 이 팀의 작업은 이제 일반 안전 연구로 통합될 예정입니다.


슈퍼 얼라인먼트 팀 해체

전 안전 연구원 Jan Leike는 OpenAI가 AI 시스템의 위험을 심각하게 생각하지 않는다고 비판했습니다. 반면, Meta의 Yann LeCun은 AGI(Artificial General Intelligence)의 위험이 과대평가되었다고 주장하며, AI의 발전 속도가 예상보다 느리다는 견해를 밝혔습니다. 이와 관련해 OpenAI의 CEO 샘 알트만은 직원들에게 비밀 유지 조항을 강요한 사실을 몰랐다고 해명했습니다.


AGI의 위험과 논쟁

OpenAI의 리더십은 AGI의 길이 불확실하다는 점을 강조하며, AI의 안전을 계속해서 옹호할 것이라는 입장을 밝혔습니다. 그러나 Jan Leike는 OpenAI의 리더십이 매우 발전된 AI 시스템의 위험을 충분히 인식하지 못한다고 비판했습니다.


한편, AGI의 위험이 과대평가되었다는 주장도 있습니다. 이 이론은 슈퍼 얼라인먼트 팀의 해체와도 일치합니다. 관리진은 AI 안전 연구가 과장되었다고 판단하고, 이에 따라 자원을 축소한 것으로 보입니다.


Meta의 Yann LeCun은 "충분히 많은 사람들이 현실을 왜곡된 시각으로 인지하여 다가오는 더 큰 문제를 예견하면, 그들은 종종 더 극단적인 믿음을 갖게 되는 순수성의 소용돌이에 빠지게 됩니다. 결국 그들은 그들을 호스팅하고 자금을 지원하는 조직에 독이 되며, 소외되어 떠나게 됩니다."라고 언급했습니다.


그러나 ChatGPT의 공동 창작자이자 OpenAI의 공동 창업자인 John Schulman은 AGI가 향후 2~3년 내에 가능할 것이라고 믿습니다. 그는 명확한 안전 규칙 없이 많은 사람들에게 그러한 시스템을 배포하지 않기 위해 가능한 일시 정지를 포함한 조직 간 규칙을 제안합니다.


Schulman은 "AGI가 예상보다 훨씬 빨리 도래한다면, 우리는 분명히 이에 대해 신중을 기하고 싶을 것입니다. 안전하게 처리할 수 있는지 확실해질 때까지 훈련과 배포를 조금 늦추고 싶을 수도 있습니다."라고 말했습니다.


OpenAI 내부의 논란

OpenAI의 CEO 알트만은 X에서 직원들이 회사를 떠날 때 서명해야 했던 비밀 유지 조항에 대해 전혀 몰랐다고 밝혔습니다. 이 조항은 직원들이 회사를 떠난 후 회사를 비판하면 수백만 달러의 오픈AI 주식을 잃을 가능성이 있다고 위협했습니다. 이러한 조항은 OpenAI가 친근한 스타트업의 이미지를 유지하려는 노력과는 상반됩니다.


알트만은 "우리가 어떤 것도 회수하지 않았지만, 이는 우리가 어떤 문서나 커뮤니케이션에 절대 포함시키지 말아야 했던 것입니다. 이는 제 책임이며 오픈 AI를 운영하면서 진정으로 당황했던 몇 안 되는 경우 중 하나입니다. 제가 이런 일이 일어나고 있는지 몰랐고, 알아야 했던 내용입니다."라고 말했습니다.


결론

OpenAI의 슈퍼 얼라인먼트 팀 해체와 AGI의 위험 논쟁은 AI 기술 발전의 복잡성과 도전을 보여줍니다. AI의 안전성을 보장하기 위한 다양한 접근 방식과 논의는 앞으로도 계속될 것입니다. OpenAI가 AI 기술의 미래를 어떻게 이끌어 갈지, 그리고 이에 대한 다양한 의견과 논쟁이 어떤 결론에 도달할지 주목됩니다.

매거진의 이전글 레딧과 OpenAI의 파트너십 데이터와 AI의 융합
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari