현재 AI 테스트와 벤치마크, 안전성 평가하기엔 부족 외 5건
(1) 일론 머스크, 오픈에이아이(OpenAI)와 샘 알트만(Sam Altman) 다시 고소
- 새로운 소송을 통해 OpenAI의 Microsoft와의 계약 및 AGI(Artificial General Intelligence) 정의에 대해 문제 제기
- OpenAI가 설립 목적에 반하는 행동을 했다고 주장 → 설립 당시 인류에 이익이 되는 AI 기술 개발을 약속했으나, 상업적 이익을 우선시했다는 주장
- Sam Altman과 Greg Brockman이 Elon Musk를 속여 OpenAI를 공동 설립하게 만들었다고 주장 ⇒ 비영리 구조를 약속하면서 상업적 목적을 숨긴 '사기'라고 주장
- 이전보다 더 강력한 소송으로, 연방 사기 방지 법 위반 및 음모 혐의 포함, OpenAI와 Microsoft의 계약 조건에 문제 제기
(2) 트럼프 “구글, 조심하지 않으면 회사 문 닫게 될 것” 발언
- 트럼프는 Google이 "무책임하게" 행동하고 있다고 주장 → Mark Zuckerberg(메타 CEO)가 트럼프에게 전화해 사과했으나, Google에서는 아무런 연락이 없었다고 언급 ⇒ Google의 콘텐츠 중재 결정에 불만을 표명하며, 이를 정치적 편향성 문제로 제기
- 실리콘 밸리의 주요 투자자들, 특히 Peter Thiel, Marc Andreessen, Ben Horowitz 등이 Google의 권력에 대해 우려하며 트럼프를 지지
- Peter Thiel은 Google을 "반역적"이라고 부르며 반(反)Google 규제 활동을 오랫동안 지원
- JD Vance(트럼프의 러닝메이트)는 FTC 위원장 Lina Khan의 반독점 규제 활동을 칭찬하며, Google과 같은 대형 플랫폼을 분리해야 한다고 주장 ⇒ Vance는 Google과 Facebook이 정치 과정을 왜곡하고 있다고 주장, Google의 검색 결과가 민주주의에 위협이 될 수 있다고 언급
- 최근 미국 대법원은 플랫폼의 콘텐츠 중재가 헌법적으로 보호된다는 것을 재확인한 판결을 내린 바 있음
(3) 오픈에이아이, 99.9% 정확성의 AI 생성물 판독 워터마크 기술을 보유했지만 실질적 도입 여부에 내해 내부적 논란 존재
- 워터마킹 기술: 모델이 예측하는 단어와 구문을 조정하여 감지 가능한 패턴을 생성 → 이는 구글의 Gemini 텍스트 워터마킹 기술과 유사, 워터마킹이 텍스트 출력의 품질에 영향을 미치지 않음
- 워터마킹 기술은 매우 정확하며(99.9% 효과적), 단순 텍스트 뿐만 아니라 다르게 표현하는 패러프레이징(paraphrasing)에도 효과가 있음 → 그러나 다른 모델로 재작성하는 방식으로 우회가 가능하여 문제
- 하지만 비원어민 사용자들에게 AI 도구의 유용성이 낙인찍힐 가능성 우려 → 조사 결과, 약 30%의 사용자들이 워터마킹이 도입되면 ChatGPT 사용을 줄이겠다고 응답
- 일부 직원들은 워터마킹이 효과적이라고 생각하지만, 사용자들의 반발을 고려해 덜 논란이 되는 방법을 찾고 있는 중 ⇒ ex. 메타데이터 임베딩
(4) 최근 AI 관련 보고서, “현재의 AI 테스트와 벤치마크, AI 모델의 안전성과 책임성을 보장하기에는 부족”
- Ada Lovelace Institute (ALI) 연구: 다양한 전문가 인터뷰와 최근 AI 안전성 평가 연구 조사 → 현재 평가 방식이 유용하긴 하지만, 포괄적이지 않고 쉽게 조작될 수 있으며, 실제 상황에서 모델이 어떻게 행동할지에 대한 지표를 제공하지 않는다는 지적 ⇒ 스마트폰, 처방약, 자동차처럼 AI 모델도 안전하고 신뢰할 수 있어야 한다고 주장
- 현재 평가 방법의 문제점: 레드팀(모델 취약점을 찾는 팀)은 표준화된 방식이 없어 평가의 효과를 측정하기 어려우며, 데이터 오염 문제로 모델이 훈련된 데이터와 동일한 데이터로 평가될 경우 성능이 과대평가될 수 있음
- AI 위험성의 가장 큰 원인은 모델을 빠르게 출시하려는 압박과 평가 중 문제가 발생할 가능성을 무시하는 경향
- 공공 부문의 더 많은 참여, 맥락 특화된 평가 개발, 제3자 테스트 생태계 지원 등의 해결책 제시
- 단순히 모델이 프롬프트에 어떻게 반응하는지를 넘어, 모델이 영향을 미칠 수 있는 사용자 유형과 모델에 대한 공격이 방어 장치를 어떻게 무력화할 수 있는지에 대해 평가해야 함
(5) 비디오 게임 배우들, 공식적으로 게임 산업을 대상으로 파업 돌입
- 2024년 7월 26일부터 시작된 이번 파업은 인터랙티브 미디어 및 비디오 게임 계약 협상이 결렬된 결과
- 협상 결렬의 주요 이유는 AI 기술에 대한 근로자 보호 조항, 비디오 게임 퍼블리셔들은 음성 퍼포머에게만 보호 조항을 적용하려고 함 → SAG-AFTRA(노조)는 AI 관련 조항이 음성 및 동작 퍼포머 모두에게 적용되길 원함
- 주요 기술적 쟁점: 디지털 복제(기존 퍼포먼스를 기반으로 새로운 퍼포먼스를 생성하는 디지털 복제 기술)와 생성형 AI
- 협상 초기에는 음성 퍼포머만 보호 대상, 후에 동작 퍼포머도 보호 대상에 포함되었지만, AI 디지털 복제 결과에서 퍼포머가 식별 가능한 경우에 한정됨 ⇒ SAG-AFTRA는 이 제안이 대부분의 동작 퍼포먼스를 보호하지 못한다고 주장
(6) 마이크로소프트, 보안 기준으로 직원들의 성과 책정
- 모든 직원에게 보안이 핵심 우선순위로 지정됨, Kathleen Hogan(최고 인사 책임자)이 내부 메모를 통해 모든 직원이 보안을 최우선으로 생각할 것을 명시 → 직원들이 성과 리뷰를 위해 사용하는 Connect 도구에 보안 핵심 우선순위가 추가
- Kathleen Hogan의 메모 주요 내용: Microsoft는 중요한 인프라를 제공하며, 이로 인해 고객, 회사, 세상을 사이버 위협으로부터 보호해야 할 책임이 있음 ⇒ 보안은 회사의 최우선 과제이며, 모든 직원이 보안을 핵심 우선순위로 삼아야 함.
- Microsoft의 지속 가능한 보안 강화 노력은 고객 신뢰를 유지하고, 회사의 미래를 보장하기 위한 필수적인 요소
[뉴스 출처]
- https://www.theverge.com/2024/8/5/24213557/elon-musk-openai-lawsuit-sam-altman-greg-brockman-revived
- https://www.theverge.com/2024/8/5/24212296/trump-vance-google-shut-down-first-amendment
- https://www.theverge.com/2024/8/4/24213268/openai-chatgpt-text-watermark-cheat-detection-tool
- https://www.theverge.com/2024/8/5/24213808/video-game-voice-actor-strike-sag-aftra