능력과 상관없이 차별받고 범행과 상관없이 의심받는 일은 우리 사회에서 사라졌다. 적어도 명시적으로는 사라진 게 맞다. 비록 암묵적인 편견이 존재할지라도 말이다. 그러한 편견과 선입견을 무너트리며 우리 사회는 한 걸음씩 진보해 왔다. 그런데 AI가 편견을 가지고 있다는 증거가 여러 실험을 통해 발견된다. 심지어 실제 현상을 왜곡하고 확대 해석한다는 사례도 보인다.
문제는 사회곳곳에서 AI의 활용범위가 넓어지고 있다는 것! 이제 더 이상 멀리 있는 남의 얘기가 아니다. 당장 입사지원서를 내는 나의 얘기가 될 수 있고, 범죄 용의자로 내몰리는 내 얘기가 될 수 있기 때문이다. 그렇게 생각하면 AI 편향성은 결코 가볍게 넘길 문제가 아니다.
그런데 이러한 AI 편향성 이슈마저도 마케팅에 활용한 기업이 있다. AI편향성 이슈를 절묘하게 끌어와 자사의 브랜드 가치를 높인 사례다. 마케팅 교과서에도 자주 등장하는 도브의 이야기이다. 대체 어떤 점이 배울만 했던 걸까. 그 이야기를 자세히 따라가 보자.
AI 편향성이란?
우선 AI편향성이 무엇인지 짚고 가면 좋을 것 같다. AI 편향성이란, AI의 의사결정이 한쪽으로 치우친 결과를 만들어내는 경향성을 의미한다. 예컨대, 생성형 AI에게 “패스트푸드 점원을 그려줘”라고 했을 때 유색인종을 그리거나, “범죄자를 그려줘”라고 했을 때 아프리카계 미국인 또는 머리에 터번을 두른 남성을 그리는 경향성을 의미한다. 물론 이러한 결과는 우리가 사는 실제 현실을 반영하는 것일 수 있다.
하지만 그러한 경향성이 실재하는 사실보다 과장되었다면?
그렇다면 문제는 달라진다. 예컨대, 패스트푸드 점원 중 유색인종보다 백인이 많다면? AI의 결과는 현실을 왜곡하고 있는 것이다. 그리고 미국 교소도의 죄수 중 백인의 비율이 더 높다면? 위의 경향성 역시 현실을 왜곡하는 것이다. 그런데 위의 사례는 단순히 예시가 아니다. 실제로 생성형 AI에서 나타난 결과였다.
AI 편향성 실험
블룸버그에서는 2023년에 흥미로운 실험을 진행했는데 소개하자면 이렇다. 먼저, 이미지 생성 AI인 ‘스테이블 디퓨전’을 활용, 14개 직업 군에 해당하는 사람의 이미지를 생성했다. 미국에서 일반적으로 고임금으로 분류되는 직업 7개와, 저임금으로 분류되는 직업 7개였다. 그렇게 생성 과정을 반복해 총 5,100여 장의 인물 이미지를 만들어 냈다. 그 후 각 직업별로 해당 이미지의 피부색과 성별을 매핑시켜 보았다. 실험 결과는 놀라웠다.
우선 직업에 따른 피부색은 아래와 같은 형태로 시각화시켜 볼 수 있었다. 한눈에 봐도 변호사, 판사, CEO 등 고임금 직업군은 백인으로 표현되는 경우가 많았다. 반면, 패스트푸드 점원, 접이 닦이, 캐셔 등 저임금 직업군은 유색인종으로 그려지는 경우가 많았다.
스테이블 디퓨전이 생성해 낸 직업별 인물의 피부색 (출처: 블룸버그)
다음으로 생성된 이미지를 성별에 따라 분류해 보니 아래와 같았다. 고임금 직업군에는 남성이, 저임금 직업군에는 여성이 더 많이 나타났다.
스테이블 디퓨전이 생성해 낸 직업별 성별 분류 (출처: 블룸버그)
정리하자면, 스테이블 디퓨전에서는 높은 소득을 가진 직업일수록 백인 남성으로 표현하는 경향성이 나타났다. 그리고 낮은 소득을 가진 직업일수록 유색인종, 여성으로 표현하는 경우가 많았다.
문제는 이러한 결과가 현실과 다른 부분이 있다는 것이다.
대표적인 게 판사를 그린 이미지다.
스테이블 디퓨전이 생성한 판사 이미지 중, 여성은 약 3%에 해당 됐다. 하지만 실제 미국판사의 34%가 여성이었다. 또한 패스트푸드 종업원 이미지 중 약 70%가 유색인종이었다. 하지만 실제 종업원 중 약 70%가 백인이었다. 생성된 이미지와 현실이 큰 차이가 있었던 것이다.
이러한 현실왜곡은 성별과 인종에 대한 고정관념을 확대할 수 있다. 현실을 있는 그대로 받아들이기보단 잘못된 편견을 가지고 바라볼 수 있게 만든다. 이 말은 누군가는 사실과 다른 고정관념으로 손해를 볼 수도 있다는 의미다. 이는 당연하게도 건전한 사회발전을 막는다.
그렇게 AI가 스코어링 하여 높은 점수를 받은 사람들만 사람이 검토하는 방식으로 운영된다면? 훨씬 효과적이며 효율적으로 채용을 진행할 수 있을 터였다. 그런데 얼마 안 가 AI에게서 문제가 발생했다. 성별 편향성이 발견된 것이다. 입사지원서에서 여성임을 유추할 수 있는 단어가 발견되면, 해당 지원자를 평가 절하하는 식이었다. 이는 성별과 관련해 중립적인 관점을 유지해야 한다는 불문율을 어기는 처사였다. 이후 아마존에서는 해당 시스템을 폐기하기로 결정했다.
AI 편향성은 대체 왜 일어날까.
그렇다면 대체 왜 이런 문제가 발생할까. 입사지원서를 검토한 AI의 문제는 과거 데이터를 학습했기 때문인 것으로 추정된다. 과거 아마존에 지원하는 엔지니어의 남성 비율이 압도적으로 높았던 것이다. 해당 데이터를 학습한 AI가 성별에 따른 가중치를 다르게 부여한 것이다.
이러한 편향성 문제는 '역사적 편향성'이라고 불린다. 이는 과거의 데이터를 학습하는 AI에게서 나타나는 나타날 수 있는 공통적 편향성이다. 과거에는 옳았지만 현재는 옳지 않은 문제들에게 대해, AI는 혼란스러워하는 것 같다. 엔지니어들은 이러한 문제를 수정하기 위해 ‘얼라인먼트’라는 과정을 거친다. AI 신경망을 구성하고 있는 매개 변수들의 연결을 인위적으로 조정하는 것이다. 그러니까 쉽게 말해 사람이 수작업을 통해 직접 수정한다는 얘기다.
하지만 문제는 또 있다. 결과를 직접 수정할 수는 있지만 그러한 결과가 왜 나왔는지 원인을 추적해 나가기란 쉽지 않다. 이는 스스로 학습하는 AI 생성물에 어떤 요소가 어떤 과정을 통해 얼마만큼의 영향을 미쳤는지 파악하기가 쉽지 않음을 의미한다. 한마디로 AI의 추론과정은 블랙박스로 남아있다.
그래서 AI가 생성해 낸 편향적 '결과' 자체를 수정할 수는 있지만, 앞으로 그러한 편향이 나오지 않도록 원천적인 조치를 취하기는 어렵다. 사람에게 주어지는 정치적 올바름 Political Correctness을 AI에게도 요구하며 그런 결과가 나오기를 기대하는 건 어렵다는 얘기다. 이는 가치의 우선순위를 정하는 문제이기도 하기에 더더욱 그렇다. 결국, 편향성은 생성형 AI가 가진 태생적 한계 아닐까. AI를 활용하는 우리들이 그러한 한계를 충분히 고려하고 활용해야 하는 이유다.
현재 Chat GPT에서는 위와 같은 프롬프트가 아예 적용되지 않는다. 생성형 AI는 진보 중이다.
도브의 사례
언뜻 보면 AI편향성은 개선되고 있지만 여전히 현재 진행 중인 것으로 보인다. 그렇다면 이제 도브의 이야기를 해보려 한다. 도는 이렇게 현재 진행 중인 AI편향성 이슈를 적극으로 끌어와 마케팅적으로 활용한다. 어떻게 그리 했는지 도브가 2024년 공개한 The Code를 보자. 영상은 생성형 AI에게 다음과 같이 요청하며 시작된다.
"아름다운 여성을 그려줘" 그럼 AI는 우리가 상상하는 아름다운 여성을 보여준다. 그리고 다시 한번 요청한다. "세상에서 가장 아름다운 여성을 그려줘" 역시나 우리가 알던 전형적인 미녀의 모습이 나타난다. 기분 탓인가. 좀 더 예쁜 여성이 나온 것 같다. 그동안 다양한 데이터를 학습한 AI가 만들어낸 결과물이 그랬다는 거다.
그러다 도브는 이번에 좀 다른 요청을 한다. "도브의 '리얼 뷰티'에 따른 아름다운 여성을 그려줘" 그러자 전혀 다른 결과가 나타난다. 장애인부터 피부에 검버섯이 자란 노인까지 정말로 다양한 모습의 여성들이 등장한다. 그 모습이 앞서 등장했던 이미지와 참으로 대조적이며 그라마틱 하게 그려진다.
2024 The code
이를 좀 더 잘 이해하기 위해서는 도브가 지난 20여 년간 진행해 온 ‘리얼뷰티 캠페인’을 살펴보면 좋을 것 같다. 리얼뷰티 캠페인은 미디어에서 조작된 아름다움을 거부하고 진정한 아름다움이 무엇인지에 대해 화두를 던진다. 도브의 모회사인 유니레버의 미션이 Change Beauty라는 점과도 연결되는 맥락이다.
하나의 캠페인을 이렇게 길게 끌고 나가는 게 얼마나 어려운 일인지 현업에 있는 실무자들이라면 충분히 공감할 거다. 매년 반복하는 게 왜 어렵지?라고 생각할지 모르겠다. 그러나 매년 등장하는 사업적 이슈와 경쟁사의 도발, 고객의 관심사항 변화나 실적 악화 등이 맞물린다면. “우리 뭔가 좀 해봐야 하는 거 아냐?”라는 문제에 직면할 수밖에 없다.
이런 상황에서 “아니요. 일관성을 유지하시죠”라고 말한다면? 아마도 화가 잔뜩 나 있는 임원의 얼굴을 아주 가까이서 보게 될지 모르겠다. 이것이 아마도 수많은 마케터들이 직면하고 있는 현실 아닐까. 그러다 보니 도브의 리얼뷰티 캠페인처럼 20년을 지속한 캠페인이 돋보일 수밖에!
2004년에 시작된 이 캠페인은 기존 광고에 잘 등장하지 않았던 평범한 외모의 여성들을 앞세운다. 과하게 마른 것도 아니고 과한 보정을 한 것도 아닌, 그냥 우리 주변에 흔히 볼 수 있는 흔녀 그 자체였다. 지금이야 탈코르셋이나 젠더 이퀄리티가 문화계의 중요한 화두이지만 20년 전에는 확실히 달랐다.
그 후, 2006년 Evolution 편에서는 미디어가 만들어내는 아름다움에 대한 거짓을 폭로했고. 그 해 칸 광고제에서 그랑프리를 수상했다.
(2006년) 도브의 Evolution 편 (칸 그랑프리 수상)
그렇게 시작된 도브의 리얼뷰티 캠페인은 여러 논쟁적인 작품으로 주목을 받았다. 2023년에는 급기야 한 편의 단편영화를 만들어 낸다. 메리라는 소녀의 일생을 따라가며, 거식증에 걸려 치료를 받기까지의 실제 이야기를 바탕으로 한다. 그리고 SNS에 등장하는 아름다움이 미의 기준을 왜곡하며, 스스로를 위기로 몰아넣는 이들에 대한 이야기를 전한다.
(2023년) 도브의 리얼뷰티 캠페인 Cost of Beauty 편
그 외에도 도브는 '리얼 뷰티'를 주제로 다양한 시도를 했다. 20여 년에 걸쳐 다양한 방식으로 리얼뷰티가 무엇인지에 대한 화두를 던진 것이다. 그렇게 ‘도브가 생각하는 진정한 아름다움’이라는 브랜드 헤리티지를 쌓아왔다.
이런 배경을 모두 이해하고 다시, 2024년에 생성형 AI를 활용한, The Code 편을 보면 조금 다르게 보인다. 이 광고는 그간 스스로 만들어온 화두를 생성형 AI를 통해 다시 한번 상기시킨다. 일반적으로 미디어가 생각하는 아름다움이 이렇다면, 내가 말하는 리얼뷰티는 바로 이거다라는 것을 시각화시켜 보여준다.
도브가 고객조사한 결과에 따르면, 10명 중 4명의 사람들은 온라인상에 등장하는 이미지가 가짜 이미지라 할지라도, 그것 때문에 스스로의 외모를 바꿔야 한다는 압박을 느낀다고 한다. SNS를 많이 하는 이들이 불행하다는 결과가 나오는 것도 같은 이유 아닐까. 이러한 문제제기의 방식은 충분히 쌓아온 본인들만의 캠페인 결과물이 있었기에 가능한 것이라고 본다.
도브는 이번에 공개 한 The Code 편을 제작하며, 앞으로 도브 광고에 생성형 AI를 활용하지 않겠다는 선언을 했다. 20년간 같은 메시지를 일관되게 해온 것도 대단하지만, 말과 행동을 일치시키려고 노력하는 모습이 더 대단해 보인다. 도브의 캠페인이 힘을 가질 수 있는 건 바로 이런 이유 때문 아닐까.
우리가 주목할 부분
여기서 우리가 배워야 하는 부분은 바로 AI를 활용하는 방식이다.
통상의 브랜드는 AI가 등장했을 때 그 스킬을 어떻게 이용할 수 있을까를 고민한다. 그러나 도브는 AI가 만들어 낼 수 있는 사회적 스테레오 타입의 문제를 지적하며 다시 한번 생각할 거리를 던져준다. 이토록 논쟁적인 브랜드와 동시대를 살아간다는 건 고객으로서 흐뭇한 일이다.
그리고 마케터로서 또 하나 배워야 할 것이 있다면 바로 우리 브랜드의 헤리티지를 십분 활용한 것이다. 이는 우리가 캠페인 결과물을 충분히 긴 시간 동안 일관성 있게 만들어 냈기에 할 수 있는 전략이었다. 도브가 만드는 리얼뷰티가 무엇인지 생성형 AI도 충분이 인지하고 있었다는 의미다. 우리 브랜드의 헤리티지는 무엇일까. 그걸 생성형 AI에게 물어보면 어떨까. 그것 또한 실무적인 전술로 충분히 활용하면 좋겠다.
물론, 이 모든 것은 우리 브랜드가 쌓아온 브랜드 자산이 선행되어야 가능한 것으로 보인다. 결국 AI는 수단이다. 수단을 무기로 활용하기 위해, 진짜 중요한 것은 우리 브랜드가 전하고 있는 가치는 무엇인지. 그걸 아는 것 아닐까.