brunch

You can make anything
by writing

C.S.Lewis

by 김종찬 Feb 19. 2024

인공지능20대기업83개국선거방해금지7대규약 가짜뉴스대응

20 AI companies, 7-step pledge to ban el

인공지능 20대기업 83개국 선거방해 금지 7단계 규약 가짜뉴스 대응 

    

인공지능(AI) 20개 기업이 83개국 선거의 ‘선거방해’ 대응에 ‘간편 식별 라벨’ 필수 첨부 등 7개 대응의 공동 규약을 발표했다.

어도비(Adobe), 아마존(Amazon), 앤스로픽(Anthropic), 구글(Google), 메타(Meta), 마이크로소프트(Microsoft), 오픈AI(OpenAI), 틱톡(TikTok), X(X) 등 20개 인공지능 기술 기업들은 올해 선거에서 사기성 인공지능 콘텐츠가 투표를 방해하는 것을 막기 위한 자발적 서약을 16일  보도자료로 밝혔다. 

뮌헨 안보회의에서 발표된 <TECHNOLOGY INDUSTRY TO COMBAT DECEPTIVE USE OF AI IN 2024 ELECTIONS> 협정에는 ‘인공지능 탐지 도구 및 기타 조치에 대한 협력 약속’을 포함했으나 선거 관련 인공지능 콘텐츠 금지는 강제하지 않았다.

<2024년 선거에서 AI의 기만적 사용을 방지하기 위한 기술 협정>은 “서명국이 공개적으로 액세스할 수 있는 대규모 플랫폼 또는 개방형 기반 모델을 통해 생성되거나 대규모 소셜 또는 출판 플랫폼에 배포되는 기만적 AI 선거 콘텐츠로 인해 발생하는 위험을 협정의 약속과 관련된 자체 정책과 관행에 따라 관리 방법에 대한 기대치 설정한다”고 밝혔다.

협정은 ‘예방’ ‘출처표기’ ‘탐지’ ‘반응보호’ ‘대중교육’ 민주절차 보호‘ 등 7가지 목표를 국체적으로 제시했다.

우선 ‘예방’에서 “고의적으로 기만적 AI 선거 콘텐츠가 생성될 위험 제한하기 위해 합리적 예방 조치 연구 투자 배포”하고, ‘출처 표기’는 “적절하고 기술적으로 가능한 경우 콘텐츠의 출처를 식별하기 위해 출처 신호 첨부”를 강제했다.

‘탐지’ 단계에서는 “사기성 AI 선거 콘텐츠나 인증된 콘텐츠 감지 시도(플랫폼 간 출처 신호 읽기와 같은 방법)”에 공동 대응하고 ‘반응 보호’ 단계는 “사기성 AI 선거 콘텐츠의 제작 유포와 관련된 사건에 대해 신속하고 균형 잡힌 대응 제공”을 보장했다.

‘평가’에서 공동 평가와 집단 검증을 중시해 “사기성 AI 선거 콘텐츠 다루는 경험과 결과 평가하고 학습 위한 집단적 노력 수행”을 명시하고 ‘대중의 인식’을 확대하기 위해 “미디어 리터러시 모범 사례, 특히 사기성 AI 콘텐츠와 관련하여 대중을 교육하고 시민이 이러한 콘텐츠에 의해 조작되거나 속지 않도록 자신을 보호할 수 있는 방법에 대해 대중을 교육하기 위한 공동의 노력에 참여한다”고 규정했다.

마지막 단계인 ‘탄성’에서 “AI 리터러시, 기타 공공 프로그램, AI 기반 솔루션(오픈 소스 도구 포함) 또는 상황별 기능과 같은 방어 도구 및 리소스를 개발하고 제공 노력 지원”을 약속하고, “공개 토론 보호하고, 민주적 절차의 무결성 방어하고, 기만적 AI 선거 콘텐츠 사용에 대한 사회 전체의 회복력 구축”을 보장했다.

Anthrophic은 이날 자사의 기술이 ‘정치 캠페인이나 로비에 적용되는 것 금지할 것’을 별도로 밝혔다.

앤스로픽은 블로그 게시물에서 클로드(Claude)라는 챗봇을 만들고 있으며 이날 “그곳의 규칙을 위반한 사용자들을 경고하거나 정지시킬 것”이라며 “잘못된 정보를 자동으로 탐지 및 차단하고 운영에 영향을 미치도록 훈련된 도구를 사용하고 있다”고 추가 조치를 밝혔다.

챗GPT 챗봇 제조사인 오픈AI는 앞서 지난달 실제 사람이나 기관을 가장한 챗봇을 만드는 데 사용하는 것을 부분적으로 금지해 선거에서 도구 남용을 방지 조치를 취했다.

뉴욕타임스는 인공지능 회사들이 혁신적 기술 개발이 전 세계의 주요 선거가 겹치는 해에 증폭되는 것을 감안해 AI 사용 방식에 대한 제한 설정에 나섰다며 “최근 몇 주 동안 구글은 인공지능 챗봇인 바드(Bard)가 특정 선거 관련 프롬프트에 ‘매우 조심스럽게’ 응답하는 것을 제한할 것이라고 밝혔다.

NYT는 페이스북과 인스타그램을 소유하고 있는 메타(Meta)는 유권자들이 어떤 자료가 진짜이고 가짜인지 더 쉽게 식별할 수 있도록 플랫폼에서 인공지능이 생성한 콘텐츠에 더 나은 라벨을 붙일 것을 밝혔다.

가짜뉴스 관련해 허위 정보 캠페인과 연계된 AI 비디오 생성기 보유 스타트업 기업 신테시아(Synthesia)는 허위, 양극화, 분열 또는 오해의 소지가 있는 자료를 포함한 "뉴스와 유사한 콘텐츠"에 기술 사용을 금지 조치를 밝혔다. 

Synthesia의 기업업무 및 정책 책임자 Alexandru Voica 이사는 NYT에 “이 회사는 기술의 오용을 감지하는 데 사용하는 시스템을 개선했다”고 이날 말했다.

이미지 생성기 도구를 보유한 스타트업인 스태빌리티(Stability) AI는 불법적이거나 비윤리적인 목적으로 자사의 기술을 사용하는 것을 금지하고, 안전하지 않은 이미지 생성 차단에 노력하며, “모든 이미지에 눈에 띄지 않는 워터마크 적용”을 밝혔다.

구글은 지난해 12월 19일 보도자료에서“ 유튜브의 동영상 제작자와 모든 선거 광고주에게 디지털 방식으로 변경되거나 생성된 콘텐츠 공개하도록 요구할 것”이라 밝혔다.

구글은 “SGE(Search Generative Experience) 및 Bard를 포함한 생성형 AI 제품을 도입할 때 원칙에 입각한 책임 있는 접근 방식에 중점을 두고 사이버 보안 취약성에서 잘못된 정보 및 공정성에 이르기까지 안전 위험 테스트에 우선순위를 두고 있다”며 “2024년 선거 준비에서 이러한 중요한 주제에 대한 많은 주의를 기울이기 위해 Bard와 SGE가 응답을 반환할 선거 관련 쿼리 유형 제한할 것”이라 밝혔다.

올해는 전 세계에서 최소 83개의 선거가 치러질 것으로 예상되며, 이는 향후 24년 사이에 가장 많은 선거가 치러지는 해가 된다.

최근 몇 주 동안 대만, 파키스탄, 인도네시아 국민들이 투표를 마쳤고, 세계 최대의 민주주의 국가인 인도가 3월 총선이고 이어 한국 총선이다. kimjc00@hanmail.net


Top 20 artificial intelligence companies, 83 countries, 7-step pledge to ban election interference, joint response to fake news


Twenty artificial intelligence (AI) companies announced seven joint protocols for response to ‘election interference’ in elections in 83 countries, including the mandatory attachment of ‘easy identification labels’.

Adobe, Amazon, Anthropic, Google, Meta, Microsoft, OpenAI, TikTok, X, etc. 20 Several artificial intelligence technology companies announced in a press release on the 16th a voluntary pledge to prevent fraudulent artificial intelligence content from interfering with voting in this year's election.

The TECHNOLOGY INDUSTRY TO COMBAT DECEPTIVE USE OF AI IN 2024 ELECTIONS agreement announced at the Munich Security Conference included ‘a commitment to cooperate on artificial intelligence detection tools and other measures’, but did not enforce a ban on election-related artificial intelligence content.

The Technical Agreement to Prevent the Deceptive Use of AI in the 2024 Elections states that “signatories may “We set expectations on how the risks that arise will be managed in accordance with our own policies and practices related to the commitments of the agreement,” it said.

The agreement presented seven national goals, including ‘prevention’, ‘source attribution’, ‘detection’, ‘response protection’, ‘public education’, and ‘protection of democratic procedures’.

First, under ‘prevention’, “invest in research and deploy reasonable precautions to limit the risk of intentionally deceptive AI election content being created,” and under ‘source attribution’, “where appropriate and technically feasible, attach a source signal to identify the source of the content.” ” was enforced.

The ‘Detection’ phase will jointly respond to “attempts to detect fraudulent AI election content or authenticated content (methods such as reading cross-platform source signals)” and the ‘Response Protection’ phase will “respond to incidents related to the creation and dissemination of fraudulent AI election content.” “Providing a quick and balanced response” was guaranteed.

In ‘Evaluation’, we place emphasis on joint evaluation and collective verification, specifying “Evaluate the experience and results of dealing with fraudulent AI election content and conduct collective efforts to learn,” and to expand ‘public awareness,’ “Best practices in media literacy, especially fraudulent AI.” “Participate in concerted efforts to educate the public regarding content and how citizens can protect themselves from being manipulated or deceived by such content.”

The final phase, ‘Resilience,’ commits to “support efforts to develop and deliver defense tools and resources, such as AI literacy, other public programs, AI-based solutions (including open source tools), or contextual capabilities,” and “protect public debate; , defend the integrity of the democratic process, and build the resilience of society as a whole against the use of deceptive AI election content.”

Anthrophic separately announced on this day that its technology ‘will be prohibited from being applied to political campaigns or lobbying.’

In a blog post, Anthropic said it was building a chatbot called Claude that would “warn or suspend users who violate its rules” and “train it to automatically detect and block misinformation and influence operations.” “We are using tools that have been developed,” he said of additional measures.

OpenAI, the maker of the ChatGPT chatbot, previously took steps to prevent abuse of the tool in elections last month by partially banning its use to create chatbots that impersonate real people or organizations.

The New York Times said that artificial intelligence companies have begun setting limits on how they use AI, given that the development of innovative technologies is amplified in a year that coincides with major elections around the world. “In recent weeks, Google has launched its artificial intelligence chatbot Bard. It said it would "out of an abundance of caution" limit responses to certain election-related prompts.

The NYT said Meta, which owns Facebook and Instagram, will better label artificial intelligence-generated content on its platforms to make it easier for voters to discern which material is real and which is fake.

Synthesia, a startup whose AI video generator has been linked to disinformation campaigns, announced a ban on using its technology for "news-like content" that includes material that is false, polarizing, divisive or misleading. .

“The company has improved the systems it uses to detect misuse of its technology,” Alexandru Voica, director of corporate affairs and policy at Synthesia, told the NYT today.

Stability AI, a startup with an image generator tool, prohibits the use of its technology for illegal or unethical purposes, strives to block the creation of unsafe images, and “invisibly removes water from all images.” “Apply the mark.”

In a press release on December 19 last year, Google said, “We will require YouTube video creators and all election advertisers to disclose digitally altered or created content.”

Google “focuses on a principled and responsible approach when adopting generative AI products, including Search Generative Experience (SGE) and Bard, and prioritizes testing for safety risks, from cybersecurity vulnerabilities to misinformation and fairness.” “To ensure we get the most attention to these important topics in preparation for the 2024 elections, we will be limiting the types of election-related queries for which Bard and SGE will return responses.”

At least 83 elections are expected to be held around the world this year, making it the most election year in the next 24 years.

In recent weeks, people in Taiwan, Pakistan, and Indonesia have voted, and India, the world's largest democracy, is holding general elections in March, followed by South Korea's general elections.


Fake news, Google, labeling, election interference, election campaign, open AI, artificial intelligence, source attribution, platform, false information

작가의 이전글 김영호‘북한주민에자유’이승만자유북진공포정치로헌법평화변조
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari