AI와 윤리적인 문제들
메타는 AI 생성 및 조작 미디어에 대하여 라벨링을 부착하는 업데이트를 하여 콘텐츠의 투명성과 창작물에 대한 보호를 하려 합니다.
딥페이크용 "Made with AI" 배지 도입
상황에 맞는 라벨링이 늘어나고 콘텐츠의 삭제 횟수를 줄이려 함
이는 감독 위원회로부터 받은 권고에 대한 조치로 보임
메타는 라벨링을 통하여 콘텐츠 제거를 줄이고 AI로 생성된 콘텐츠를 관리하는 방법을 업데이트하고 있습니다.
이러한 변화는 감독 위원회의 피드백과 EU의 디지털 서비스 법과 같은 새로운 법률에 따르는 행동이며
올 7월부터 메타는 콘텐츠를 단순 삭제하기보다 콘텐츠에 대한 표시를 더 명확하게 하는 것에 집중하는 것으로 보입니다.
이러한 방식은 특히 선거 기간 동안 딥페이크와 허위 정보 등과의 싸움 그리고 표현의 자유에 대한 필요성 사이에 균형을 맞추는 노력을 목표로 합니다.
하지만 이러한 노력이 "업계 표준 AI 이미지 지표", 혹은 크리에이터가 AI 생성 콘텐츠임을 공개한 경우에만 적용한다고 이야기하여 실효성의 문제도 제가 되고 있습니다.
많은 AI 생성 콘텐츠가 이러한 규정을 피해 게시될 거라 생각됩니다.
그리고 콘텐츠 삭제보다는 라벨링을 통한 게시로 방향을 정한다면 기존 보다 더 많은 AI 콘텐츠와 조작된 미디어가 메타 플랫폼에 남게 된다는 의미가 됩니다.
페이스북의 경우에는 무분별한 혐오, 폭력, 선정성, 광고 등의 영상이 노출되며 유저들이 많이 이탈하는 일이 있었는데 과연 이번 정책에서는 어떤 형태고 자유를 보장할 것인지 어떤 형태로 관리해 나갈 것인가가 관건이 아닐까 합니다.
메타는 자금을 지원하고 자율적으로 운영할 수 있게 허가한 자문 위원회를 가지고 있는데 이 자문 위원회의 피드백을 기반으로 메타는 AI 콘텐츠의 접근 방식을 수정하는 것에 대하여 동의하였습니다.
지난 2월 바이든 대통령이 손녀에게 투표를 인증하고 빰에 입을 맞춘 영상을 비 윤리적이고 성적인 영상으로 둔갑시켜 만든 부적절한 영상에 대해 신고가 들어왔고 메타가 삭제를 거부하자 이 사건은 확대되어 알려지게 되었습니다.
그리고 이 사건을 계기로 감독 위원회는 메타가 콘텐츠를 삭제하지 않더라도 최소한 가짜 영상 혹은 AI 및 조작된 영상이라는 라벨링을 부착하도록 권고하였고 메타는 이를 받아들였습니다.
메타는 위에서도 언급한 것과 같이 페이스북의 허위 정보, 극단주의 및 위험한 콘텐츠의 확산을 방치하고 확산시킨다는 조사를 수년간 받아오고 있고 이러한 문제를 방지하기 위해 고려하겠다는 약속만을 한 상태입니다.
이러한 상황과 AI에 대한 떠오르는 문제점들을 보면 이미 사람들의 논점은 흐려졌다고 봅니다.
"AI가 좋은 것인가? 나쁜 것인가?" 라는 너무 수준이 낮은 의문이라 생각합니다.
AI를 사용하는 사람이 나쁜 의도를 가지고 있는 사람인지 보통의 사람인지가 핵심이고, 개인의 자유를 보장하는 만큼 그에 대한 더 큰 책임을 부과해야 하는 것이 맞는다고 생각합니다.
개인 하나의 자유가 다수에게 악영향을 미치고 피해를 준다면 그 하나의 자유 때문에 많은 사람의 자유와 권리가 침해받는 것에 대한 보호는 어떻게 할 것인지도 심각하게 고려해야 할 사항이 아닐까 합니다.