AI-Generated Content Defamation Lawsuits
AI 생성 콘텐츠 명예훼손 소송 증가 태양광회사 구글에 ‘1.1억달러’
AI 생성 콘텐츠에 대한 명예훼손 소송이 증가하면서 AI 회사들이 ‘비공개 합의’를 종용하고 있다.
구글을 상대로 한 울프 리버 고소 사건은 경쟁업체가 흘린 허위 정보가 구글 콘테츠에 포함되면서 AI가 이를 노출시켜 1억1천만 달러 소송으로 커졌다.
인간이 아닌 AI가 생성한 콘텐츠에 대한 소송이 미국과 미국이외 국가에서 발생하고 이 소송을 취재한 뉴욕타임스는 <AI가 틀렸을 때 누가 비용을 지불하는가?> 제목에 <새로운 법원 판례는 인공 지능이 만든 콘텐츠를 명예훼손으로 정의하려고 시도하고 있고, 이는 일부 법률 전문가들을 사로잡은 새로운 개념이다> 부제목으로 12일 보도했다.
미 중부 미네소타의 태양광 계약업체인 Wolf River Electric의 영업 담당자는 작년 말 취소된 계약이 이례적으로 증가한 것을 발견했고, 이전 고객에게 그 이유에 대한 설명을 요구했을 때 돌아 온 대답은 구글 검색에서 회사가 주 정부에 의해 고소됐고 보석금을 냈다고 나왔음을 알게됐다.
예약 고객들은 구글 검색을 통해 회사가 기만적인 판매 관행에 대해 주 법무장관과 소송을 합의했다는 사실을 알게 된 후 보석금을 냈다고 회사에 말했으나, 회사는 그러한 청구와 관련된 사건을 해결하는 것은 고사하고 정부로부터 고소를 당한 적이 없었다.
Wolf River 경영진이 이를 직접 확인했을 때 혼란이 커졌다.
Google의 인공 지능 기술인 Gemini가 페이지 상단에 전달한 검색 결과에는 거짓 내용이 포함되어 있었다.
더구나 ‘법적 합의’에 대한 언급은 검색창에 "Wolf River Electric"을 입력하면 자동으로 채워졌다.
계약 취소가 쌓이고 문제를 해결하기 위해 Google의 도구를 사용하려는 시도가 결실을 맺지 못하자 Wolf River 경영진은 명예훼손 혐의로 거대 기술 기업을 고소할 수밖에 없다고 결정했다.
2014년 가장 친한 친구 세 명과 함께 Wolf River를 설립하고 주 최대의 태양광 계약업체로 성장하도록 도운 Justin Nielsen은 "우리는 좋은 이름을 쌓기 위해 많은 시간과 에너지를 투자했습니다"라며 "고객이 그런 위험 신호를 보면 다시 되찾는 것은 거의 불가능하다"고 NYT에 밝혔다.
이들의 명예훼손 소송은 지난 2년 동안 텍스트와 이미지를 생성하는 AI 도구로 제작된 콘텐츠에 대해 미국에서 제기된 최소 6건의 명예훼손 소송 중 하나이다.
소송에서 그들은 최첨단 기술이 개인이나 그룹에 대한 허위 정보를 만들고 게시했을 뿐만 아니라 많은 경우 AI 모델을 구축하고 이익을 얻은 회사가 문제를 인지한 후에도 계속해서 정보를 공개했다고 주장한다.
다른 명예훼손이나 비방 소송과 달리 이 사건은 인간이 만든 것이 아닌 콘텐츠를 명예훼손으로 정의하려고 하는데, 이는 일부 법률 전문가들을 사로잡은 새로운 개념이다.
로스앤젤레스 캘리포니아 대학(UCLA)의 저명한 수정헌법 제1조 학자인 유진 볼로크(Eugene Volokh) 교수는 "이러한 모델이 해로운 주장을 발표할 수 있다는 데는 의심의 여지가 없다"면서 "문제는 누가 그것에 대한 책임이 있느냐는 것이다"고 NYT에 말했다.
불로크 교수는 2023년 자신의 출판물인 언론의 자유 저널(Journal of Free Speech Law)의 전체 호를 AI 명예 훼손 문제에 할애했다.
최초의 AI 명예 훼손 소송 중 하나는 2023년 조지아에서 제기됐다.
토크 라디오 진행자이자 수정헌법 제2조 옹호자인 원고인 마크 월터스(Mark Walters)는 ChatGPT 챗봇이 총기 권리에 대한 언론인의 질문에 월터스 씨가 횡령 혐의로 기소되었다고 허위 진술로 응답하면서 자신의 평판을 손상시켰다고 주장했니다.
미국의 많은 명예훼손 사건에서 기본적인 과제는 의도를 입증하는 것이다.
그러나 ChatGPT와 같은 AI 모델을 구동하는 알고리즘 내부에서 무슨 일이 일어나고 있는지 아는 것은 불가능하기 때문에 소송 및 이와 유사한 다른 모델들은 코드를 작성한 회사(이 경우 OpenAI)에 책임을 돌리려고 했다.
월터스 씨의 변호사인 존 먼로는 "프랑켄슈타인은 사람들을 살해하며 돌아다니며 자신이 그것과 아무 관련이 없다고 주장하는 괴물을 만들 수 없다"라고 NYT 말했다.
월터스 소송 사건은 재판에 회부되기 훨씬 전인 5월에 기각됐다.
법원은 다른 이유들 중에서도 기자가 ChatGPT의 주장을 신뢰하지 않는다는 점을 인정하고 그것이 사실이 아님을 신속하게 확인했다고 지적했습니다.
이러한 경우 제3자가 명예훼손 혐의가 있는 콘텐츠가 사실이라고 확신할 가능성이 있는지 여부는 매우 중요합니다.
트레이시 케이슨 판사는 판결문에서 "이의를 제기한 진술을 읽은 개인이 주관적으로 그것이 사실이라고 믿지 않는다면 그 진술은 명예훼손이 아니다"라고 기각 사유를 판시했다.
소송 사건에 대해 OpenAI는 논평 요청에 응답하지 않았다.
현재까지 미국에서 배심원단에 상정된 AI 명예훼손 사건은 없는 것으로 보이지만, 다양성, 형평성, 포용성 프로그램에 반대하는 캠페인으로 유명한 우익 인플루언서인 로비 스타벅(Robby Starbuck)이 지난 4월 메타를 상대로 제기한 적어도 한 건은 합의로 마무리됐다.
스타벅스 씨는 X를 스크롤하는 동안 메타의 AI 챗봇 중 하나인 라마가 생성한 자신에 대한 허위 정보가 포함된 이미지를 발견했다고 주장했다.
이미지의 텍스트에는 스타벅 씨가 2021년 1월 6일 폭동 당시 미국 국회의사당에 있었고 QAnon 음모론과 관련이 있다고 명시되어 있었다.
스타벅 씨는 그날 테네시에 있는 집에 있었고 QAnon과 아무 관련이 없다고 말했다.
메타는 불만 사항에 공식적으로 응답하지 않은 채 8월에 합의했다.
합의의 일환으로 회사는 스타벅 씨를 메타의 AI 치안 유지에 중점을 둔 고문으로 영입했다.
메타는 당시 성명을 통해 "로비와 함께 이러한 중요한 문제에 관여한 이후 메타는 메타 AI의 정확성을 개선하고 이념적, 정치적 편견을 완화하기 위해 엄청난 진전을 이루었다"고 밝혔다. 회사는 추가 합의 조건이나 스타벅 씨가 자문 업무에 대한 대가를 받았는지 여부 공개를 거부했다.
스타벅 씨는 9월에 AI에 대해 구글을 고소했다.
1,500만 달러의 손해 배상을 요구하는 명예훼손 소송에서 그는 챗봇을 구동하는 데 도움이 되는 기술인 구글의 대규모 언어 모델이 자신에 대해 명백히 거짓 진술을 했다고 주장했다. 구글에 대한 소송의 핵심은 오류가 고의적인 "알고리즘에 내장된 정치적 적대감의 결과"라고 주장했다.
구글은 아직 불만 사항에 대해 공식적으로 답변하지 않았지만, 회사 대변인 호세 카스타녜다(Jose Castañeda)는 “스타벅스 씨의 주장 대부분이 2023년으로 거슬러 올라가며 당시 해결되었다”면서 "모두가 알다시피 충분히 창의적이라면 챗봇에게 오해의 소지가 있는 말을 하도록 유도할 수 있다"고 NYT에 밝혔다.
인기 있는 아일랜드 DJ이자 토크쇼 진행자인 Dave Fanning이 인터넷에서 자신에 대한 명예 훼손 자료라고 말한 내용을 발견하는 데는 프롬프트가 필요하지 않았다.
마이크로소프트의 MSN 웹 포털에 소개된 콘텐츠는 그의 사진이 맨 위에 있고 "저명한 아일랜드 방송사, 성추행 혐의로 재판에 직면하다"라는 제목의 기사였다.
성추행 혐의로 기소되지 않은 패닝 씨는 사람들이 혐의에 대해 문의한 후 이 사실을 알게 됐다.
결국 그는 인도에 본사를 둔 한 뉴스 사이트가 AI 챗봇을 사용하여 기사를 제작하고 텍스트와 함께 자신의 사진을 추가했다는 사실을 발견했다.
그런 다음 Microsoft는 MSN에 로그온하거나 Microsoft Edge 브라우저를 사용하는 아일랜드의 모든 사람이 잠시 볼 수 있는 기사를 게시했다.
작년 초, 패닝 씨는 미국 밖에서 제기된 몇 안 되는 AI 명예 훼손 소송 중 하나인 아일랜드 법원에서 마이크로소프트와 인도 뉴스 매체를 모두 고소했다.
마이크로소프트는 계류 중인 사건에 대해 논평을 거부했으며, 패닝 씨는 이 사건을 재판에 회부하고 싶다고 말했다.
그는 "마이크로소프트가 한 일은 트라우마를 안겨주었고, 그 트라우마는 분노로 바뀌었다"고 NYT에 말했다.
미디어법을 전문으로 하는 시러큐스 대학의 커뮤니케이션 교수인 니나 브라운(Nina Brown)은 “이러한 사건 중 재판에 회부될 사건은 거의 없을 것으로 예상한다”면서 “회사가 AI 모델의 출력에 대해 책임이 있다는 판결이 내려지면 자신에 대한 거짓 사실을 발견한 다른 사람들로부터 엄청난 소송이 쇄도할 수 있다”고 NYT에 말했다.
브라운 교수는 "피고가 취약한 AI 명예훼손 소송이 발생하면 곧 사라질 것이라고 생각하며 AI 회사가 이를 해결할 것"이라며 AI 회사에 대해 "그들은 위험을 원하지 않는다"고 NYT에 밝혔다.
브라운 교수와 볼로크 교수 등 기타 여러 법률 전문가들은 태양광 회사인 울프 리버(Wolf River) 사건이 특히 강력해 보였다고 밝혔고, 그 이유에 대해 “부분적으로는 회사가 허위로 인한 구체적인 손실을 문서화할 수 있었기 때문”이라고 말했다.
미네소타주 노스 오크스에 있는 울프 리버 태양광 설치 회사는 작년에 “거의 2,500만 달러의 매출 손실을 입었다”면서 고소장에서 계약 종료 금액은 388,000달러라고 구체적으로 언급했다.
블라디미르 마르첸코(Vladimir Marchenko) CEO는 인터뷰에서 “회사가 신규 고객도 잃었다”면서 "우리는 일부 경쟁업체가 잠재 고객과 협의하여 우리를 이용하지 않도록 설득하기 위해 가짜 법무장관 주장을 제기한다는 사실을 알게 됐다"고 NYT에 말했다.
그는 “Reddit에서 잘못된 Google 결과를 인용하는 게시물도 발견했다”면서 “그 게시물에서는 울프 리버 회사를 ‘가능한 악마 군단’이라 불렀다”고 밝혔다.
회사는 구글과의 서신에서 2024년에 거의 2,500만 달러의 매출 손실을 입었으며 최소 1억 1,000만 달러의 총 손해 배상을 요구하고 있다고 밝혔습니다.
연방 판사가 이 문제를 유지할지 아니면 지난 3월에 제기된 주 법원으로 다시 보낼 것인지 저울질하는 동안 소송은 보류된 상태다.
잠재적으로 Wolf River에 유리하게 작용하는 것은 공인으로 분류될 가능성이 낮다는 것입니다.
미국에서 공인 보다는 개인 인물이 명예훼손이 발생했음을 증명할 수 있는 기준이 더 낮기 때문에 중요한 차이점이 된다.
울프 리버는 거대 AI 빅테크 상대 소송에서 진실에 대한 "무모한 무시"로 알려진 것이 아니라 ‘구글이 부주의하게 행동했다’는 것만 입증하면 승산이 있다.
구글 대변인 카스타녜다 씨는 성명을 통해 "어떤 새로운 기술이든 실수가 발생할 수 있다"며 "문제를 알게 되자마자 신속하게 조치를 취했다"고 언급해 사실상 ‘실수’를 인정했다.
그러나 최근인 10일에 "울프 리버 전기 불만 사항"을 구글에서 검색한 결과 "회사는 판매 관행과 관련하여 미네소타 법무장관으로부터 소송을 당하고 있다"는 결과가 나왔고 고객이 "이미 회사와 관련되어 있으므로 미네소타 법무장관실에 불만을 제기할 것"을 새 문안이 떴다.
어렸을 때 우크라이나에서 미네소타로 이주해 닐슨과 함께 주니어 하키를 했던 울프 리버 창업자인 마르첸코 씨는 “AI 결과가 바뀌지 않으면 회사가 폐업할 수 있다는 걱정이 된다”면서 "우리를 위한 플랜 B는 없다. 우리는 처음부터 이 일을 시작했다. 우리는 우리의 명성을 가지고 있고 그게 전부이다"고 NYT에 밝혔다.
이재명 대통령은 4일 국회에서 내년 728조원 거대 예산에 AI 예산 10조1천억원 편성에 대해 "이제는 AI 시대의 고속도로를 구축해 도약과 성장의 미래를 열어야 한다"며 "산업화 시대에는 하루가 늦으면 한 달이 뒤처지고, 정보화 시대에는 하루가 늦으면 1년이 뒤처졌지만, AI 시대에는 하루가 늦으면 한 세대가 뒤처진다"고 국정 연설했다.
<저널 어브 프리 스피치 로우> 2025년 6권 1호에는 <카일 랭바트 &앨런 Z. 로젠슈타인, 편집 비유를 넘어서: Moody v. NetChoice 이후 플랫폼 콘텐츠 조정에 대한 수정헌법 제1조 보호> <블라인드 검토 제출 Mark Fenster, 침해 대리인: 평판 NDA 위반에 대한 제3자의 법적 책임> <멜빌 B. 니머 기념 강연, 제인 C. 긴즈버그, 인본주의자 저작권>이 게재됐다.
2024년 5권 3호에는 <숀 J. 그리피스,기업 연설과 기업 목적: 기업 제1차 수정헌법 권리 이론441> <크리스토퍼 D. 햄슨, 명예훼손, 파산 및 수정헌법 제1조513> <플로이드 에이브럼스, 산드라 바론, 리 레빈, 제이콥 M. 슈라이너-브릭스, 아이작 반스 메이, 언론 조항: 잊혀진 수정헌법 제1조> 등의 논문이 게재됐다.
<이재명 AI로 직접민주주의 헌법 위반 2021년 공약은 ‘뉴딜 4% 고성장, 2025년 7월 14일자>
<유럽연합 인공지능법 ‘알고리즘 훈련 콘텐츠 분석’ 의무 이재명 네이버 ‘주권침해’ 2025년 7월 12일자>
<이재명 ‘AI 주권 국민지배체제’ 주가조작 vs 미국 ‘주식이 국민분열’, 2025년 4월 14일자>
<AI 메타 300억 달러 부채 위장 불랙스톤 34.6억달러 부채 재융자 ‘증권발행’, 2025년 11월 9일자> 참조
kimjc00@hanmail.net
AI-Generated Content Defamation Lawsuits Rise, Solar Company Google Settles $110 Million
As defamation lawsuits over AI-generated content increase, AI companies are encouraging "non-disclosure agreements."
The Wolf River lawsuit against Google grew to $110 million after AI exposed false information leaked by a competitor, which was then incorporated into Google content.
Lawsuits over AI-generated content, rather than humans, are occurring in the US and abroad. The New York Times, which covered these lawsuits, reported on the 12th with the headline "Who Pays When AI Gets Wrong?" and the subtitle "New Court Case Tries to Define AI-Generated Content as Defamation—A Novel Concept That's Captivating Some Legal Experts."
A sales representative for Wolf River Electric, a solar contractor in central Minnesota, noticed an unusual increase in canceled contracts late last year. When he asked former customers for an explanation, he found that a Google search indicated the company had been sued by the state and had posted bail.
Customers told the company they had paid their bail after learning through Google that the company had settled a lawsuit with the state attorney general over deceptive sales practices. However, the company had never been sued by the government, let alone settled a case related to such claims.
Confusion grew when Wolf River executives confirmed this for themselves.
The search results delivered at the top of the page by Google's artificial intelligence technology, Gemini, contained false information.
Furthermore, the reference to "legal settlement" was automatically populated when users typed "Wolf River Electric" into the search bar.
As contract cancellations piled up and attempts to use Google's tools to resolve the issue proved fruitless, Wolf River executives decided they had no choice but to sue the tech giant for defamation.
"We've invested a lot of time and energy into building a good reputation," Justin Nielsen, who founded Wolf River with three of his closest friends in 2014 and helped it grow into the state's largest solar contractor, told the New York Times. "Once a customer sees those red flags, it's nearly impossible to get them back."
Their defamation lawsuit is one of at least six filed in the United States over the past two years against content generated by AI tools that generate text and images.
The lawsuits allege that not only did these cutting-edge technologies create and publish false information about individuals or groups, but in many cases, the companies that built and profited from the AI models continued to publish the information even after they were aware of the problem.
Unlike other defamation or slander suits, this case seeks to define non-human content as defamatory, a concept that has captivated some legal experts.
“There’s no doubt that these models can publish harmful claims,” Professor Eugene Volokh, a prominent First Amendment scholar at the University of California, Los Angeles (UCLA), told the New York Times. “The question is who is responsible for that?”
Professor Volokh dedicated an entire issue of his 2023 publication, the Journal of Free Speech Law, to the issue of AI defamation. One of the first AI defamation lawsuits was filed in Georgia in 2023.
Plaintiff Mark Walters, a talk radio host and Second Amendment advocate, alleged that the ChatGPT chatbot damaged his reputation by responding to a journalist's question about gun rights with a false statement that Walters had been charged with embezzlement.
The fundamental challenge in many defamation cases in the United States is proving intent.
However, because it's impossible to know what's happening inside the algorithms that power AI models like ChatGPT, the lawsuit and others like it sought to shift blame to the company that wrote the code—in this case, OpenAI.
"You can't create a Frankenstein monster that goes around murdering people and then claims he had nothing to do with it," Walters' attorney, John Monroe, told the New York Times.
Walters' case was dismissed in May, long before it went to trial.
The court noted, among other reasons, that the reporter distrusted ChatGPT's claims and quickly verified they were untrue. In such cases, it's crucial to determine whether a third party could reasonably believe the allegedly defamatory content to be true.
In her ruling, Judge Tracy Cason stated, "If an individual reading the challenged statement does not subjectively believe it to be true, then the statement is not defamatory."
OpenAI did not respond to a request for comment on the lawsuit.
While no AI defamation cases appear to have gone to a jury in the United States, at least one case brought against Meta in April, brought by Robby Starbuck, a right-wing influencer known for campaigning against diversity, equity, and inclusion programs, was settled.
Starbuck claimed that while scrolling through X, he came across an image containing false information about himself generated by one of Meta's AI chatbots, Lamar.
The text in the image stated that Starbuck was present at the US Capitol during the riots on January 6, 2021, and was associated with the QAnon conspiracy theory. Mr. Starbuck was at his home in Tennessee that day and said he had no affiliation with QAnon.
Mehta settled in August without formally responding to the complaint.
As part of the settlement, the company brought Mr. Starbuck on as an advisor, focusing on Mehta's AI policing efforts.
Mehta said in a statement at the time, "Since engaging with Robbie on these critical issues, Mr. Starbuck has made tremendous progress improving the accuracy of Meta AI and mitigating ideological and political bias." The company declined to disclose additional terms of the settlement or whether Mr. Starbuck received compensation for his consulting work.
Mr. Starbuck sued Google in September over the AI.
In a defamation lawsuit seeking $15 million in damages, he alleged that Google's large-scale language model, the technology that powers his chatbot, made demonstrably false statements about him. At the heart of his lawsuit against Google is his claim that the errors were deliberate "the result of political animosity embedded in the algorithm."
Google has not yet formally responded to the complaint, but company spokesman Jose Castañeda told the New York Times that "most of Mr. Starbucks's claims date back to 2023 and were resolved at that time." He added, "As we all know, if you're creative enough, you can trick a chatbot into saying something misleading."
It didn't take a prompt for Dave Fanning, a popular Irish DJ and talk show host, to discover what he called defamatory material about himself online.
The content featured on Microsoft's MSN web portal featured a story headlined "Prominent Irish Broadcaster Faces Trial on Sexual Harassment Charges."
Fanning, who has not been charged with sexual harassment, learned of the allegations after people inquired about them.
He eventually discovered that an India-based news site had used an AI chatbot to create an article and added his photo alongside the text.
Microsoft then published the article, briefly visible to anyone in Ireland who logged on to MSN or used the Microsoft Edge browser. Early last year, Fanning sued both Microsoft and an Indian news outlet in an Irish court, one of the few AI defamation lawsuits filed outside the United States.
Microsoft declined to comment on the pending case, and Fanning said he hoped to take the case to trial.
"What Microsoft did was traumatic, and that trauma has turned into anger," he told the Times.
Nina Brown, a communications professor at Syracuse University who specializes in media law, told the Times, "I expect very few of these cases will go to trial." She added, "If a company is found liable for the output of its AI model, it could unleash a flood of lawsuits from others who have discovered falsehoods about themselves."
"I think any AI defamation lawsuits where the defendant is vulnerable will quickly disappear, and the AI companies will settle them," Brown told the Times. "They don't want to take that risk." Professors Brown, Volok, and several other legal experts said the case against the solar company Wolf River appeared particularly strong, in part because the company was able to document specific losses attributed to the misrepresentation.
Wolf River Solar Installations, based in North Oaks, Minnesota, claims it lost "nearly $25 million in revenue" last year, specifically citing $388,000 in termination fees in its lawsuit.
"The company also lost new customers," CEO Vladimir Marchenko told the Times in an interview. "We've learned that some competitors are using fake attorney general claims to negotiate with potential customers and dissuade them from using us."
He also found a Reddit post citing the inaccurate Google search results, calling Wolf River a "legion of possible demons." In its letter to Google, the company stated it suffered nearly $25 million in lost revenue in 2024 and is seeking total damages of at least $110 million.
The lawsuit is on hold while a federal judge weighs whether to stay the case or send it back to the state court where it was filed last March.
A potential advantage for Wolf River is the reduced likelihood of being classified as a public figure.
This is a significant distinction, as the bar for proving defamation in the United States is lower for individuals than for public figures.
Wolf River has a chance of success in its lawsuit against the AI giant Big Tech if it can prove only that Google acted negligently, not that it was known for its "reckless disregard for the truth."
Google spokesperson Castañeda said in a statement, "Mistakes can happen with any new technology," and "We took action quickly once we became aware of the issue," effectively acknowledging the mistake.
However, a recent Google search for "Wolf River Electric complaints" on the 10th revealed that the company is being sued by the Minnesota Attorney General regarding its sales practices, and a new message appeared urging customers to "file their complaint with the Minnesota Attorney General's office because they are already involved with the company."
Wolf River founder Marchenko, who immigrated from Ukraine to Minnesota as a child and played junior hockey with Nielsen, told the New York Times, "I worry that if the AI results don't change, the company could go out of business." He added, "There's no Plan B for us. We started this from the beginning. We have our reputation, and that's all there is to it."
President Lee Jae-myung delivered his State of the Nation address on the 4th, addressing the 10.1 trillion won allocated to AI in next year's massive 728 trillion won budget. He said, "Now is the time to build a highway for the AI era and open a future of leap forward and growth." He added, "In the industrial age, a day behind meant a month behind, and in the information age, a day behind meant a year behind. But in the AI age, a day behind means a generation behind."
The Journal of Free Speech Raw, Volume 6, Issue 1, 2025, includes an article titled "Kyle Langbart & Alan Z. Rosenstein, Beyond Editorial Metaphor: Moody v. The following articles were published: <First Amendment Protections for Platform Content Moderation After NetChoice>, <Mark Fenster, Blind Review Submissions, Infringement Agents: Third-Party Liability for Reputational NDA Violations>, <Melville B. Nemur Memorial Lecture, Jane C. Ginsburg, Humanist Copyright>.
Volume 5, Issue 3, 2024, included articles such as <Sean J. Griffith, Corporate Speech and Corporate Purpose: A Theory of Corporate First Amendment Rights441>, <Christopher D. Hampson, Defamation, Bankruptcy, and the First Amendment513>, and <Floyd Abrams, Sandra Baron, Lee Levin, Jacob M. Schreiner-Briggs, Isaac Barnes May, The Speech Clause: The Forgotten First Amendment>.
See <Lee Jae-myung's 2021 pledge to violate the Constitution with AI, including a "New Deal 4% high growth," July 14, 2025>
<Lee Jae-myung's Naver pledge to "violate sovereignty" by mandating "algorithm training content analysis" under the European Union's Artificial Intelligence Act, July 12, 2025>
<Lee Jae-myung's "AI sovereign national governance system" and "stock manipulation" vs. the US, "stocks divide the nation," April 14, 2025>
<AI Meta disguise $30 billion in debt, Blackstone refinancing $3.46 billion in debt with "securities issuance," November 9, 2025>
AI, AI highway, Google, Microsoft, Meta, defamation, freedom of the press, OpenAI, Lee Jae-myung, content