테드 창의 SF 소설집 <당신 인생의 이야기>에는 '외모지상주의에 관한 소고: 다큐멘터리'라는 단편이 실려 있습니다. 소설 속 인류는 신경과학 기술의 발달 덕에 인간의 뇌에서 외모의 아름다움을 인식하는 회로만 선택적으로 끌 수 있는 기술을 얻게 됩니다. 아름다움을 뜻하는 접두사 칼리(calli), 인식불능 증상을 뜻하는 단어 아그노시아(agnosia)를 결합하여 "칼리아그노시아"라고 불리는 기술로 작중에서는 줄여서 "칼리"라고만 부르는데, 칼리를 활성화한 사람들은 사람을 바라볼 때 그의 외모의 아름답고 추함을 인식하지 못하게 되고 상대방의 외모로 인해 긍정적이든 부정적이든 감정 동요를 겪지 않게 되지요.
테드 창은 소설에서 칼리를 활성화하기로, 혹은 활성화하지 않기로 선택한 사람들이 인간관계를 어떻게 꾸려나가는지를 제목 그대로 다큐멘터리처럼 그려냅니다. 현실이 꼭 그런 것처럼 칼리는 무조건 긍정적인 것도 부정적인 것도 아닌 다면적인 면모를 갖는 것으로 묘사되는데요, 작중에서 '칼리아그노시아 협회 회장'의 다음 강연이 제게는 아주 인상 깊었습니다. 조금 인용하겠습니다.
코카인을 예로 들어 봅시다. 천연 형태의 코카 잎은 쾌감을 줍니다. 하지만 문제가 되는 정도까지는 아니지요. 그러나 정제하고 순화하면, 그것은 여러분의 쾌락 수용기를 부자연스러울 정도로 강렬하게 자극하는 약물로 변신합니다. 그러면 중독성이 생기는 거지요.
아름다움 또한 광고주들 덕택에 비슷한 과정을 거쳐 왔습니다. 진화는 우리에게 잘생긴 외모에 반응하는 신경 회로를 부여했고, 시각 피질의 쾌락 수용기라고 부를 수 있는 이것은 자연 환경에서는 유용한 자질이었지요. 그렇지만 백만 명에 한 명밖에는 없는 피부와 골상을 가진 사람에게 전문적인 메이크업과 수정을 가한다면, 여러분이 보게 되는 것은 더 이상 천연 형태의 아름다움이 아닙니다. 그것은 정제된 약제급의 아름다움이고, 미모의 코카인입니다.
생물학자들은 이것을 '초자극'이라고 부릅니다. 어미 새에게 거대한 플라스틱제 알을 보여주면 어미 새는 자기가 낳은 진짜 알들 대신에 이 플라스틱 알을 품습니다. (...) 우리의 미적 수용기는 진화로 얻은 처리 용량을 초과하는 자극을 받고 있습니다. 단 하루에 우리 조상들이 일생 동안 받은 것보다 더 많은 양의 아름다움을 보고 있는 겁니다. 그리고 그 결과 아름다움은 우리의 삶을 천천히 파괴하고 있습니다.
칼리와 같은 기술이 정말로 우리를 외모 강박에서 해방시킬 수 있을 것인지, 그렇다면 모든 사람들에게 칼리 사용을 권고하거나 강제하는 것은 윤리적으로 옳은 일인지, 모두가 칼리를 의무적으로 사용하는 사회는 정말 지금보다 나아질 것인지 등 수많은 질문을 던지는 소설입니다만, 적어도 저는 칼리와 같은 기술이 있다면 꼭 한 번 사용해 보고 싶다는 생각이 들었습니다. 뭐, 칼리가 우리 세상에서 현실화하려면 아직 갈 길이 멀어 보이긴 하지만 말이죠.
안타깝게도 우리 쪽 세상에서는 조금 다른 기술이 날갯짓을 하고 있는데 칼리와는 반대 방향으로 우리를 데려가려고 하고 있습니다. 바로 사용자의 외모를 '객관적'으로 평가한다고 주장하는 AI 기술입니다. 당장 앱스토어에 '외모 평가' 따위의 키워드로 검색해 보면 여러분의 외모를 점수로 평가해 주겠다는 앱이 수도 없이 쏟아지고 있지요. 대규모 벤쳐캐피탈의 투자를 받는 '실력 있는' 이미지처리 AI 스타트업도 뛰어들고 있습니다. 심지어 엔비디아나 마이크로소프 같은 대기업도 외모 평가 AI에 투자한 바 있고요.
2021년 3월, MIT 테크놀로지 리뷰에 외모 평가 AI 기술에 대한 심층 분석 기사가 한 편 실렸습니다. 기자 스스로 외모 평가 AI 업체의 서비스를 체험해 보고 관련 논의를 종합한 기사인데요, 해당 업체 CEO의 인터뷰까지 실려 있다는 점에서 상당히 깊이 있는 자료입니다. 국문 번역 기사도 있으니 일독을 권합니다.
기자는 우선 코브 스튜디오(Qoves Studio)라는 스타트업의 서비스를 이용합니다. 사진을 업로드하면 얼굴에서 보이는 결점을 지적하고 그것을 '고칠' 수 있는 기초화장품, 화장법, 심지어는 성형수술 기법을 소개하고 추가금을 내면 성형외과 의사와의 상담을 연결해 주는 업체입니다. 다음으로는 개방형 얼굴 인식 플랫폼 Face++의 외모 평가 서비스에 본인의 사진을 업로드해 봤더니 "남성들에게는 69.62%의 사람들보다 아름답다고 인식되며, 여성들에게는 73.877%의 사람들보다 아름답다고 인식됩니다"라는 결과를 받았다고 하네요. 아주 '객관적'입니다.
그런데 잘 생각해 보면, '객관적'으로 아름다움을 평가한다는 말은 굉장히 이상합니다. 외모 평가가 애초에 객관적일 수 있는 건가요? 세상에는 90점짜리 얼굴과 40점짜리 얼굴이 존재해서 반드시 전자가 후자보다 아름다운 건가요? 서구적인 얼굴과 마른 몸만을 일방적으로 숭배하지 말자는 주장이 나온 지도 이미 수십 년이 흘렀고, 마르든 살찌든 모든 신체를 긍정하는 바디 포지티브(body positivity) 운동도 꽤 자리를 잡았고, 우리나라에서는 여성 신체에 대한 모든 평가와 억압을 부정하는 탈코르셋 운동까지 하는 와중에 숫자로 표현되는 객관적 외모란 건 대단히 반동적인 개념입니다.
아니나 다를까, 외모 평가 AI가 '객관적'이지 못하며 차별을 조장한다고 지적하는 논자들과 연구는 이미 존재합니다. 유명한 사례로는 메릴랜드 대학교의 로렌 루(Lauren Rhue) 교수가 2019년에 수행했던 연구가 있는데요, Face++의 외모 평가 알고리즘에 비욘세의 서로 다른 사진을 넣어 봤더니 피부가 희게 나온 사진일수록 점수가 높았다는 겁니다. Face++의 개발사는 중국 기업인 메그비(Megvii)이고, AI 모델 학습에 중국에서 얻은 데이터를 대량으로 사용하면서 흰 피부를 선호하는 국가적인 편향이 그대로 반영되었기 때문이라고 합니다.
이런 일이 일어날 수밖에 없는 건 지금의 AI 알고리즘이 학습용 데이터에 거의 전적으로 의존하기 때문입니다. 인공신경망에 기반한 AI 모델을 학습시키기 위해서는 대량의 자료가 필요한데, 일반적으로 이 자료는 '문제'와 '정답'의 쌍으로 구성됩니다. 인공신경망에게 '1번 사진의 외모는 79점이고, 2번 사진의 외모는 35점이다'는 식으로 사진을 잔뜩 보여준 다음, '그렇다면 100번 사진의 외모는 몇 점일까?'를 물어보는 거예요. 이때 '정답'이 50점인데 AI가 20점이라고 대답하면 다음에는 50점에 더 가까운 점수를 뱉어낼 수 있도록 '훈련'하는 거고요. 이런 방식으로 학습된 AI는 아무리 성능이 출중하더라도 자신을 학습시킨 '기출 문제'의 범위를 벗어나는 사고는 절대 할 수 없습니다. 만약 이 AI를 학습시킨 '기출 문제'에서 피부가 흰 사람들에게 높은 점수를 줬다면 이 AI도 당연히 피부가 흰 사람들에게 높은 점수를 줄 거고요.
이처럼 데이터를 기반으로 학습하는 현재 패러다임의 AI는 기존의 편견을 그야말로 스펀지처럼 빨아들입니다. 데이터의 학습 과정 자체는 객관적이고 사람의 손을 타지 않지만, 애초에 '기출 문제'에 매겨진 정답부터가 그 사회의 편견을 적나라하게 반영하고 있을 테니까요. 어떻게 보면 AI가 사회적 편견을 진단하는 장치라고 생각할 수 있는 정도인데요, 만약 외모 평가 AI가 꾸준히 피부가 흰 사람이 더 예쁘다고 말하고 있다면 그 AI를 학습시킨 자료를 만들어낸 사람들에게 흰 피부를 선호하는 편향이 있다고 역으로 추론할 수 있는 거지요.
문제는 '외모 평가'라는 기술이 너무나 악순환을 불러일으키기 쉽다는 겁니다. 객관적이랍시고 광고하는 AI 알고리즘이 '당신 얼굴은 지금 25점인데, 피부 미백을 하면 50점까지는 올라갈 것'이라고 선언했을 때, 흰 피부를 선호하는 미적 기준에 대항해서 사회운동을 시작할 사람보다는 그 AI의 평가와 권고를 받아들여서 미백 시술을 받으려는 사람이 많을 수밖에 없어요. 점차 사람들은 바로 자신을 평가한 AI의 평가 기준을 스스로 내면화할 거고, 이런 사회에서 만들어진 데이터로 학습한 AI 모델은 그 편향된 평가 기준을 다시 한번 강화해서 퍼뜨릴 거고요.
동료 집단의 압력에 취약한 미성년자들은 특히 걱정스럽습니다. 스마트폰과 SNS가 널리 확산하면서 미국 10대 여성들의 우울증과 자살이 폭증했다고 하는데요, 실시간 '좋아요' 개수가 자신의 외모에 대한 '객관적'인 평가가 되어버린 상황에서 이성적으로 압박을 이겨낼 수 있을까요. 좋아요 개수보다 훨씬 '객관적'인 AI 외모 평가가 더 퍼져나간다면, AI 외모 평가의 점수를 공유하고 경쟁하는 게 근미래의 흐름이 되어버린다면, 안 그래도 우울한 지금의 상황은 걷잡을 수 없이 악화할 겁니다.
코브 스튜디오의 창업주인 셰이피 핫산(Shafee Hassan)은 자사 기술이 인종적 편견을 억제하기 위해 최대한으로 노력한다고, 유럽인의 외모를 기준으로 삼는 대신 "자신의 인종 안에서 최대한 아름다운 외모"를 지향한다고 주장합니다. 이 선언 자체의 얄팍하고 기만적인 면도 문제이지만, 설령 이들의 노력이 진심이라 하더라도 페이스북의 "윤리적인 AI 프로젝트"가 최근에 어떻게 좌초했나를 생각해 보면 최대 이익을 추구하는 기업체들이 스스로 윤리적인 AI 기술을 만들 거라고 기대하기는 어려워 보입니다. 결국 이익과 사회적 가치가 충돌하는 상황이 오면 시장논리는 언제나 이익의 손을 들어 줄 테니까요. 2018년에 사회 책임 경영을 선언했던 다논 CEO도 매출이 떨어지자 3년을 못 채우고 쫓겨났는걸요.
결국은 지금의 AI 기술이 어떤 지점에서 편향되기 쉬우며 실패할 수 있는지 명확히 인식하고, 기업들에게 이런 기술의 사용 여부를 공개하도록 강제하고 또 견제하는 사회적인 장치가 있어야 합니다. 소위 테크 기업들의 자발적인 노력만 믿기에는 지난 몇 년의 변화가 너무나 우려스러웠어요. 그러나 AI가 객관적이면서도 마술적인 기술 혁명이라고만 생각해서는 절대 적절한 견제 장치를 설계할 수 없을 테지요. AI 기술의 실상에 대해 더 많은 사람들이 문제의식을 갖고 더 목소리를 내야만 한다고 생각합니다.