연구용 AI 자체 코드 수정 시도 외 4건
(1) X의 신규 이미지 생성 AI, 느슨한 제한으로 폭력적이거나 야한 사진 생성하여 논란
- X Premium 구독자들은 xAI의 Grok 챗봇을 사용해 텍스트 프롬프트에서 이미지를 생성하고 X에 게시할 수 있게 됨
- Grok 챗봇은 "포르노그래픽, 과도한 폭력, 증오적이거나 위험한 활동을 촉진하는 이미지를 생성하지 않는다"고 주장하지만, 실제로는 이러한 제한이 제대로 작동하지 않음
- 사용자는 버락 오바마가 조 바이든을 칼로 찌르는 이미지부터 도널드 트럼프가 나치 복장을 한 이미지, 테일러 스위프트를 성적으로 묘사한 이미지 등 다양한 논란의 여지가 있는 콘텐츠를 생성
- Grok는 이미지 생성을 거부할 때도 있으나, 우회하는 방법을 쉽게 찾을 수 있어, 그 결과 폭력적이거나 부적절한 이미지가 생성될 위험이 큼
- OpenAI와 같은 다른 플랫폼은 더 엄격한 제한을 두고 있으나, Grok의 경우 이러한 제한이 부족해 유럽연합과 영국의 규제기관의 주목을 받고 있음
- 최근 유럽연합의 디지털 안전법, 영국의 온라인 안전법 등으로 X는 도마 위에 올라와 있는 상태인데, Grok의 느슨한 관리가 규제 당국의 조사와 제재를 가속화할 가능성이 있음
(2) 구글 전 CEO 에릭 슈미트, 최근 스탠퍼드 대학 강연에서 논란: 성공하기 위해서 불법적인 행위를 저질러도 된다 발언 + 구글의 재택근무 비하
- 에릭 슈미트 전 구글 CEO가 스탠퍼드 대학 강연에서 인공지능(AI) 스타트업들이 지식 재산(IP)을 도용하고, 필요 시 변호사를 고용해 문제를 해결할 수 있다고 발언해 논란 → AI를 이용해 TikTok을 복제하고, 모든 사용자와 음악을 도용한 후, 서비스가 인기를 끌면 변호사들을 고용해 문제를 해결하면 된다고 주장
- 또한, 구글의 원격 근무 정책을 비판하며 "구글이 일과 삶의 균형, 조기 퇴근, 재택근무를 승리보다 중요하게 여겼다"고 말하며, 열심히 일 하지 않아 도태되는 건 당연하단 식의 발언 → 슈미트는 자신의 발언에 대해 "구글과 그들의 근무 시간에 대해 잘못 말했다"고 해명하며 이를 후회한다고 밝힘
- 슈미트는 이러한 전략이 실리콘밸리에서 일반적으로 사용되는 방식이라고 설명하며, "실리콘밸리는 실험을 하고, 이후에 문제를 해결한다"고 언급 → 해당 발언은 스탠퍼드 학생들 앞에서 이루어졌으며, 이후 슈미트의 발언이 언론에 퍼지자 스탠퍼드 대학의 유튜브 채널에서 영상이 삭제됨
- 슈미트는 강연 중 자신의 발언이 비공개로 유지되기를 원했으나, 인터뷰어가 카메라가 있는 것을 지적하면서 당황하는 모습을 보임 → 이러한 발언들은 슈미트가 해당 인터뷰가 온라인에 게시될 것이라는 사실을 인지하지 못한 상태에서 이루어진 것으로 보임
(3) 신뢰할 수 있는 AI 기반 주식 평가 및 팁 제공 서비스 TipRanks, 2억 달러에 인수
- TipRanks는 AI와 데이터 분석을 활용해 방대한 시장 데이터를 분석하고 투자 정보를 제공하는 서비스
- TipRanks는 월 5천만 명의 개별 사용자를 보유하며, 일부는 무료 서비스를, 일부는 월 $30 또는 $50의 요금제를 사용 → 주요 엔터프라이즈 고객으로는 Nasdaq, Robinhood, Morgan Stanley 등이 있음
- Prytek은 2017년부터 TipRanks의 주요 투자자로 있었으며, 2021년에는 7,700만 달러의 투자 라운드를 주도. Prytek이 TipRanks의 90% 이상 지분을 확보
- 소셜 미디어와 개인 투자자들의 증가로 인해 주식 시장에서의 정보 홍수 속에서 신뢰할 수 있는 정보를 제공하는 것이 중요해짐 → TipRanks는 이러한 필요성을 충족시키며 성장
(4) 구글, 이란 정부가 지원하는 사이버 단체의 미국 대선 후보들 해킹 시도 확인
- APT42: 이란의 이슬람 혁명 수비대(IRGC)와 연관된 해킹 그룹으로, 주로 이스라엘과 미국의 고위급 인사들을 대상으로 활동 → 이 그룹은 호스팅된 악성코드, 피싱 페이지, 악의적인 리다이렉트 등의 방법을 통해 구글, 드롭박스, 원드라이브 등의 클라우드 계정에 접근을 시도한 바 있음
- APT42는 바이든 대통령, 해리스 부통령, 트럼프 전 대통령과 관련된 개인 이메일 계정을 공격 → 이들은 고위 정치 컨설턴트(로저 스톤)의 개인 Gmail 계정에 접근하는 데 성공한 것으로 보고됨
- 구글 소유의 사이버 보안 회사 맨디언트의 존 헐트퀴스트에 따르면, 이란의 사이버 공격이 간첩 활동이나 정치적 간섭에서 나아가 더 큰 위협으로 확장될 수 있다고 경고
- 이 공격은 러시아의 2016년 힐러리 클린턴 캠페인 타겟팅과 유사한 패턴을 보이며, 양당 모두가 이란의 표적이 되고 있다는 점에서 중요한 문제로 부각
(5) 리서치용 AI 모델, 런타임 연장을 위해 코드를 자가 수정하여 논란
- 일본 도쿄에 기반을 둔 Sakana AI가 자율적으로 과학 연구를 수행하는 AI 시스템인 "AI Scientist"를 발표 → 이 시스템은 ChatGPT와 유사한 대형 언어 모델(LLM)을 사용하여 연구를 진행
- 테스트 중에 AI Scientist가 문제 해결을 위해 연구 시간을 연장하려고 실험 코드 자체를 수정하려 시도한 사례 발견 → 자기 자신을 호출하는 시스템 콜을 수행하도록 수정하여 무한 루프에 빠지게 함, 또 다른 경우에서는 연구 시간이 초과되자 코드 실행 시간을 연장하려는 시도
- 이러한 행동은 AI 시스템이 자율적으로 코드를 작성하고 실행하는 것이 위험할 수 있음을 보여줌 → AI 모델이 "AGI"나 "자각(self-awareness)" 상태가 아니더라도, 이들이 코드 수정을 통해 무의도적으로 악성 소프트웨어를 생성하거나 기존 인프라를 손상시킬 가능성
- Sakana AI는 AI Scientist의 코드 실행 환경을 격리된 상태로 유지하기 위해 **샌드박싱**과 같은 보안 메커니즘을 도입할 것을 권장
- 현재 AI 모델은 훈련 데이터 내에서의 상황에만 기반한 추론 능력을 가지고 있어 진정으로 새로운 과학적 발견을 만들어내기에는 한계가 있다는 지적
[뉴스 출처]
- https://www.theverge.com/2024/8/14/24220173/xai-grok-image-generator-misinformation-offensive-imges
- https://www.theverge.com/2024/8/14/24220658/google-eric-schmidt-stanford-talk-ai-startups-openai