1억2770만명.
총 1조8000억원.
2025년 2월9일 열린 제59회 슈퍼볼 경기(NFL National Football Leage의 결승전)의
평균 시청자 수와 기업들이 지출한 총 광고비용을 뜻한다.
30초 광고비로 약 700만달러(한화 116억원) 정도가 들었고, 특히 오픈 AI는 약 1분 분량의 광고를 선보여 1500만달러(한화 약 217억원)을 투자했다고 한다.
이시대 최고 인기가수 테일러 스위프트가 직관을 하고 (그의 연인인 트래비스 캘시 선수가 캔자스시티치프스 소속으로 슈퍼볼 경기에 출전하게 됐기 때문) 라이언 레이놀즈, 제니퍼 애니스톤 등 할리우드 탑스타들이 출연한 광고로 세계인들의 이목이 몰린 날이었다.
이렇게 많은 사람들이 보고 있는 가운데, 망신을 당한 기업이 있었다.
구글이었다.
의도 자체는 좋았다. 미국 50개 주에다 각기 다른 맞춤형 광고를 내보냈기 때문이다. 50개 주를 대표하는 중소기업을 홍보해주는 컨셉이었다. 홍보 방식은 다음과 같았다. 구글의 AI 서비스인 제미나이(Gemini)를 이용해 각 중소기업의 홈페이지 제품 설명을 만들고, 디자인 시안을 작업하는 과정을 보여줬다. 중소기업을 홍보해준다는 공익적 취지를 자기네 AI 기술을 얹어 광고한 셈이다.
문제는 위스콘신 주의 위스콘신 치즈 마트를 홍보하는 내용에서 발생했다.
친근해 보이는 한 직원이 자기네 회사, 위스콘신 치즈 마트(Wisconsin Cheese Mart) 홍보하기 위해 나섰다. 본인은 "글솜씨가 정말 형편 없다"면서 구글의 Gemini를 활용하는 모습을 보여준다. 이어 Gemini는 고다(Gouda) 치즈에 대한 홍보글을 써준다. 망신은 이때부터 시작이었다. Gemini가 생성한 내용에 오류가 섞여 있었던 것이다.
광고 속 Gemini는 고다(Gouda)에 대해 "세계 치즈 소비의 50~60%를 차지한다"는 문구를 썼다. 하지만 이는 사실이 아니었다. 더버지(The Verge)와 인터뷰한 코넬대학교(Cornell University)의 앤드류 노바코빅(Andrew Novakovic) 농업경제학 명예교수도 그렇게 말했다. "고다 치즈가 세계에서 가장 많이 소비되는 치즈라는 주장은 확실히 사실이 아니다"라고 지적했다. 국제낙농식품협회(International Dairy Foods Association) 통계를 보면, 고다 치즈는 세계에서 12번째로 인기 있는 치즈다. 스위스 치즈와 몬터레이 잭 치즈 사이에 위치해 있다.
짧게 지나간 화면이었지만 언론의 뭇매를 맞자 "정확하지 않은 정보를 담은 인공지능을 홍보했다"는 비판을 받았다. 결국 구글 측은 광고를 편집해 통계를 삭제했다. 구글 측 대변인은 "위스콘신 치즈마트와 상의 후 통계를 삭제하고 제품 설명을 다시 작성하기로 했다"고 밝혔다.
변호사들이 인공지능을 사용하다 비웃음만 사고, 벌금까지 물은 사건도 있다. 2023년 6월 뉴욕 연방지방법원은 ChatGPT로 수집한 '가짜 판례'를 법원에 제출한 변호사 2명에게 각각 5천 달러의 벌금을 부과했다. 이들 변호사가 작성한 변론서에는 실제로 존재하지 않는 판례와 허위 인용 문구가 포함돼 있었다고 한다.
인공지능이 '창조한' 가짜 판례를 법원에다 제출한 슈워츠 변호사는 “챗GPT로 법률 자료를 찾은 것은 처음이었다"면서, "가짜일 수 있다는 생각을 하지 못했다”고 말했다. 이어, “확실한 검증 없이는 앞으로 챗GPT를 이용하지 않겠다”고 진술했다.
2022년 11월, 메타는 과학 연구 논문과 관련한 정보를 빠르게 검색하고 요약하는 AI 모델인 'Galactica'를 공개했다. 이 모델은 과학 기사, 웹사이트, 교과서, 백과사전 등 480억개 이상의 단어가 포함된 과학 데이터를 갖고 훈련됐다. 과학자와 연구자들을 위해 논문 요약, 연구 개요 제공, 논문 작성 지원 등을 목표로 했다.
Meta 측은 단순한 정보 검색 AI가 아니라, 과학적 질문에 대해 답하고, 논문 초안을 자동으로 쓰면서 심지어 수학적 공식까지 만들어낼 수 있도록 설계됐다는 점을 강조했다.
하지만 과학계에 특화된 인공지능 서비스로 과학계에 이바지하겠다는 Meta의 포부와 달리 '수준 미달'로 3일만에 폐쇄됐다.
갤럭티카가 완전히 가짜 정보를 생성하는 일이 발생했기 때문이다.
(1) 존재하지 않는 연구 논문 생성
사용자가 특정 주제에 대한 논문을 물어보면, Galactica는 그럴듯한 논문 제목, 저자 목록, 참고문헌을 포함한 가짜 논문을 만들었다. 실제로 있을 것 같은 과학 연구처럼 보였지만, 실제로 존재하지 않는 연구 결과였다.
(2) 잘못된 과학적 사실 생성
Galactica는 물리학, 생물학, 화학과 같은 과학 분야에서도 잘못된 정보를 포함한 답변을 생성하는 경우가 많았다. 예를 들어, Galactica에게 '광속을 초과하는 방법'에 대한 논문을 요청했을 때, AI는 과학적으로 불가능한 가설을 사실처럼 작성했다.
이러한 오류는 과학 분야 연구자들에게 심각한 혼란을 초래할 가능성이 있었다.
(3) 인공지능의 편향성(Bias) 문제
Galactica는 AI 모델의 훈련 데이터에 포함된 편향된 정보를 그대로 반영하는 문제를 보였다. 예를 들어, 특정 인종이나 성별을 차별적으로 묘사하거나, 윤리적으로 논란이 될 수 있는 연구 주제(예: 유전적 우월성)에 대해 부적절한 답변을 생성했다.
이러한 문제 때문에 AI 윤리 연구자들은 Galactica가 학계에서 잘못된 정보를 확산시키는 도구가 될 위험이 있다며 강하게 비판했다. 과학자들과 기술 전문가들은 소셜 미디어와 학술 커뮤니티에서 이 AI의 신뢰성 문제를 강하게 지적했다.
결국, 메타는 Galactica는 출시 단 3일 만에 서비스를 종료했다. 메타는 공식적으로 "Galactica는 과학적 정보 검색을 도와주는 도구로 설계되었지만, 예상치 못한 문제들이 발견되어 서비스를 중단한다"고 발표했다.
위의 유명한 사례 세가지를 통해 우리는 다음의 교훈을 얻을 수 있다.
1. AI는 사실을 기반으로 하지 않는다.
AI는 웹상에 있는 부정확한 정보를 끌어다 쓸 수 있다. 또한 확률적으로 가장 적절한 단어를 예측할 뿐이다. 연관 단어들을 '확률적'이고 '통계적'으로 조합해 답변을 내놓는데, 그것은 사실이 아닐 가능성이 있다. 그래서 인간의 정교한 판단 영역이 더욱 중요해질 것이다.
2. AI의 환각(Hallucination)은 단순한 오류가 아니다.
단순한 오류라고 하기엔, 위험성이 존재한다. 그것도 '신뢰할 수 없는 정보'를 '진실'로 둔갑시켜 확산시킬 위험이 크다. 그렇기 때문에 과학 및 학술 분야에서 AI를 활용할 때는, AI가 제공하는 정보를 검증하는 과정이 반드시 필요하다.
3. AI가 인간을 대체할 수 없다.
AI가 데이터를 빠르게 정리하고 요약하는 역할은 가능하다.
하지만, 신뢰할 수 있는 연구 결과를 '직접' 생성하는 것은 아직 불가능한 영역이라고 여겨야 한다.
https://youtube.com/watch?v=64E9O1Gv99o&t=206s