심각해지는 AI가짜뉴스 문제, 기술적 해결과 동시에 AI교육 필요
올해는 전 세계 인구 절반 이상이 투표하는 ‘슈퍼 선거의 해’이다. 어느 나라건 선거는 정책에 대한 토론이나 상대편에 대한 원색적 비난 등 여러 문제가 발생하지만, 최근 AI 기술의 발전으로 ‘가짜 뉴스(이하 ‘허위 정보’)문제가 두드러지고 있다. 앞서 살펴본 트럼프 체포 이미지 역시 AI로 생성된 이미지로, 사전 정보가 없다면 실제 사진으로 알 법 하다.
이런 사진 한 장으로 잘못하면 수십, 수백만 유권자의 투표에 영향을 주어 민주주의에 심각한 문제가 될 수 있다. 또한, 인공지능은 사진뿐만 아니라 허위 정보를 담고 있는 동영상, 신문 기사 및 정보 등을 쉽게 만들어내며, 연예인이나 일반인 대상의 성범죄에 활용될 수 있는 등 사회적으로 큰 문제가 될 수 있다. 이런 상황을 어떻게 해결해야 할까?
어떤 문제를 해결하기 위해선 언제나 문제의 ‘원인’을 알아야 한다. AI가 만들어내는 허위 정보가 왜 문제가 되는지, 이유를 짚어 보았다.
생성형 AI가 성능이 그저 그랬다면, AI가 만드는 허위 정보들은 크게 문제가 되지 않았을 것이다. 과거에는 AI가 만든 이미지가 너무 퀄리티가 낮아 실무에 활용하기 어렵기도 했고, AI 번역은 퀄리티가 낮아서 따로 본문을 다시 봐야 했으며, AI가 생성하는 글은 말이 안 되는 내용으로 구성되어 있었다.
하지만 이제는 사진전에서 AI가 생성한 이미지가 우승을 하고, 영화 ‘Her’에 나오는 인공지능 비서처럼 AI와 사람이 자연스럽게 대화도 할 수 있게 됐다. 즉, ‘AI가 생성한 글, 음성, 사진, 동영상이 사람이 생성한 것과 구분하기 어렵게 된’상황으로 인해 AI가 만드는 허위 정보가 사회적 문제가 될 수 있었다.
생성형 AI는 결과물에 책임지지 않으며, 사람이 시키는 일에 대해 ‘가장 가능성이 높은’ 결과물을 생성한다는 것도 AI가 허위 정보를 쉽고 빠르게 생성할 수 있게 하는 원인이다. 2024년 6월 현재, AI는 생성한 결과물에 대해 아무 책임도 지지 않고, 아무 양심의 가책도 없다. 허위 정보를 만드는 데 거리낌이 없다는 이야기다.
이런 와중에 생성형 AI는 ‘할 수 없다’는 대답을 ‘잘’ 하지 않는다(환각 현상). 점점 개선되고 있는 문제이긴 하지만, 생성형 AI의 기본 원리는, 학습한 데이터를 바탕으로, 확률적으로 사용자가 가장 마음에 들어 할 것 같은 정보를 생성하는 것이다. 이런 생성형AI의 원리는 생성형AI가 허위 정보를 만들어 내는 건 쉽게 만들고, 허위 정보를 판단하는 팩트체크를 하는 건 어렵게 만든다.
예를 하나 들어, 만약 ChatGPT에 내가 좋아하는 음식들에 대한 정보를 주고 일주일 치 예상 식단표를 만들라고 하면, 적당히 음식들을 배치해 앞으로 수행할 식단표를 쉽게 만들 수 있다. 반대로 임의로 만든 식단표를 주고 이 식단표대로 내가 먹었는지 생성형 AI에 확인하라고 하면, 내가 좋아하는 음식뿐만 아니라 나의 동선, 내 결제 내역 등까지 알아야 정확히 식단표가 사실인지 확인할 수 있다.
풀어서 설명하자면, 글이나 사진, 동영상을 만드는 건 사람이 봤을 때 그럴듯해 보이기만 하면 되니까 허위 정보를 생산하는 건 쉽다. 하지만 특정 텐츠가 허위인지 아닌지를 분석하는 과정에서 ‘확률’이 개입하기에는 따져봐야 할 것이 너무 많다. 결국, 생성형AI의 발전은 허위 정보를 생산하기는 쉽게 만들고, 판단하기는 어렵게 만들었다.
생성형 AI의 가장 큰 특징이라고 한다면, 할 수 있는 일은 인간보다 빠르게 처리한다는 것이다. 이는 생성형AI를 인간이 유용하게 활용할 수 있는 장점이지만, 동시에 허위 정보 문제를 더 심각하게 만드는 원인이기도 하다. 이전에 한 AI 컨퍼런스를 듣고 남긴 후기에서 작성했듯이, 허위 정보는 사실 고대 시절부터 있었다(삼국사기에 기록된 서동요). 즉, 허위 정보의 생성과 전파 자체는 새로운 문제가 아니다. 하지만 AI로 인해 너무 쉽게, 빠르게 허위 정보가 만들어지고, SNS와 뉴스 등을 통해 빠르게 전파되는 구조가 문제다.
앞서 AI로 인해 발생하는 허위 정보 문제의 ‘원인’을 살펴보았다. 원인을 진단해 진단서를 작성해 보았으니, 이제 이런 문제를 해결할 수 있는 ‘처방전’을 지어보겠다.
생성형 AI가 만든 허위 정보 문제를 일차적으로 해결할 방법은, 기술적으로 생성형 AI가 만든 컨텐츠는 AI가 만들었다는 걸 알 수 있게 표시하는 것이다. 대표적으로 구글 딥마인드에서 AI로 생성된 이미지를 구분하는 워터마크 도구 ‘신스ID(SynthID)’가 있으며, 유튜브나 메타 등의 기업에서도 AI로 생성된 컨텐츠를 구분할 수 있는 방안을 마련하고 있다. 각각의 방안들이 다른 원리를 가지고 있지만, 기업들은 사용자가 생성형AI를 통해 만들어진 콘텐츠임을 식별할 수 있는 워터마크 등을 사진이나 동영상 등에 넣고, 이후 영상이나 사진을 편집해도 이 워터마크가 훼손되지 않도록 노력하고 있다.
이외에도 AI를 활용하는 기업에서 자발적으로 생성 AI를 활용했다고 먼저 알리는 경우도 있다. 이미지에서 확인할 수 있듯이, 중앙일보의 경우 생성형 AI의 도움을 받아 작성한 기사임을 하단에 밝혔다. 이는 허위 정보의 확산을 막을 수 있는 조치이기도 하지만, 기업 입장에서도 생성형 AI를 통해 자동으로 뉴스를 내보내다 사회적으로 문제가 되어 경제적 피해를 보는 상황을 막을 수 있는 대비이기도 하다.
앞서 진단한 생성형AI의 허위 정보 문제에서, AI는 책임을 지지 않는다고 했다. 하지만, 사람과 기업은 책임을 지도록 우리는 규제와 법안을 마련할 수 있다. 실제로 AI와 관련된 빅테크 기업들이 앞장서서 선거와 관련된 딥페이크나 가짜뉴스 규제에 대해 논의하기도 했다. 유럽의 경우, AI법의 시행만을 앞두고 있으며, 미국의 경우 행정부처별로 100여 개 안팎의 AI 가이드라인을 수립하도록 하고 있다. 한국의 경우, 21대 국회에서 AI 규제와 관련된 여러 법안에 대해 발의가 이루어졌지만, ‘우선허용 사후규제’ 문제를 포함해 여러 부족한 점이 많다는 지적이 있다. AI 입법 자체는 불가피하게 신중히 이루어지더라도, 어떤 방향의 규제를 할 것인지 더 많은 논의가 필요한 시점이다.
시민들이 정보를 비판적으로 수용하는 것, 이는 단순 AI가 생성한 허위 정보를 떠나, 모든 가짜 뉴스에 대한 근본적인 해결책이다. 그렇다면, 어떻게 시민들이 보는 뉴스나 사진, 동영상 등을 비판적으로 수용할 수 있을까?
여러 해결책이 제시될 수 있겠지만, 가장 먼저 ‘생성형 AI 사용법에 대한 교육’이 이루어져야 한다고 생각한다. ChatGPT 3.5이후 생성형 AI 자체는 시민들에게 친숙해졌지만, 여전히 많이 활용해 보지 않은 사람들을 주위에서도 쉽게 발견할 수 있다. 생성형 AI라는 도구에 가장 익숙해지고 친해지는 방법은 직접 써 보는 것이다.
사람들이 칼의 위험함을 알고 있는 건, 칼에 베이면 아프다는 걸 직간접적 경험으로 알고 있기 때문이다. 하지만 동시에 사람들은 칼을 요리할 때나 무언가를 만들 때 유용하게 사용한다. 생성형 AI를 통해 생성형 AI의 성능을 직접적으로 체험한다면, 평소에 보는 여러 콘텐츠를 자연스럽게 ‘의심’하게 될 것이다. 직접적으로 사용법에 대한 교육이 어렵다면, ‘생성형 AI가 만든 허위정보 맞추기 대회’와 같이 사람들의 관심을 끌면서도 생성형AI가 만들 허위 정보의 위험성을 알리는 것도 좋겠다.
이외에도 K.F.C.(Korean Factcheckers’ Community)의 활동처럼 여러 뉴스에 대해 꾸준히 팩트체크를 하는 시민들의 움직임, 캠페인즈에서 진행한 ‘함께, 디지털 안전’ 프로젝트 등의 노력도, AI로 인해 발생하는 허위 정보 문제를 해결하는 데 큰 도움이 될 것이다.
*본 포스팅은 캠페인즈의 기고 요청을 받아 작성한 글입니다. 출처를 밝힌 후 다른 플랫폼에 게재해도 된다는 허락을 받아 브런치에도 게재하였습니다.