인공지능 교양수업 - AI 마케팅
한국에서 출생했지만 미국에서 자란 요리사 에드워드 리는, <흑백요리사> 세미파이널 라운드에서 현대식 참치 캐비아 비빔밥을 자신의 인생 요리로 내놓으며 자신을 “비빔 인간”이라고 소개한다. 한국, 미국, 그 외 다른 여러 나라의 요리 공부를 통해 익힌 다양한 문화가 자기 안에 있다는 것. 그러한 다문화 공존의 삶 속에서, 그는 자신의 정체성이 미국인인지 한국인인지 깊이 고민한 시간을 털어놓았다. 나는 그의 말에 깊이 공감했다. 아빠가 일본인이고 엄마가 한국인인 나 또한 출생부터 비빔 인간이기 때문이다. 일본에서 태어난 지 약 3년 만에 한국으로 이민 온 나는 겉보기에는 그런대로 잘 적응했다. 언어나 학업 성취도에 문제는 없었고 오히려 우수한 편이었다. 그러나 고등학생 시절 한국사 시험에서 매일 1등을 하면서도 내 안에는 소외감과 죄책감이 늘 공존했다. 왜냐하면, 일제강점기 역사 속 한국을 비인도적인 방식으로 지배한 일본의 국민이 바로 우리 아빠니까. 그렇다면 우리 아빠는 나쁜 사람인가? 나는 과연 일본인일까, 한국인일까?
이어지는 성장 과정에서도 남들과 같은 나이에 대학에 가지 못한다든지, 채식을 시작한다든지 하며 나는 자꾸만 비주류의 삶을 걷게 되었다. 고등학생 때 이후 정치에는 큰 관심을 두고 있지 않았지만, 굳이 따지자면 가난하고 차별받은 소수자인 나의 정치 성향은 좌파에 가까웠다. 그러다가 코로나19를 기점으로 다시 비빔 인간으로서의 전환점을 맞게 됐다. 나는 개인적인 건강상의 이유로 백신 접종을 하지 않았는데, 당시 정부는 백신 접종을 강제하다시피 했다. 소수자로서의 설움을 나누고 연대를 쌓은 내 주변의 비건, 소수자, 페미니즘 운동권 사람들은 아이러니하게도 다수의 이익을 위해 나와 같은 소수의 백신 접종 반대자를 억압하는 모습을 보였다.
그러다 우연히 SNS에서 나처럼 백신 접종을 하지 않은 또래 친구를 만나 함께 백신 반대 시위에 참여하게 된다. 시위 참여는 고등학생 시절 박근혜 전 대통령 하야 시위 이후 처음이었다. 그런데 경복궁으로 행진하던 백신 반대 시위는 태극기 부대와 합류하게 된다. 어라? 이게 아닌데・・・? 그 순간, 나는 내가 당시 여당이 추진하는 백신의 반강제적 접종에 반대한다는 사실을 빌미로, 선거철을 앞둔 당시 야당에 정치적으로 이용당하고 있음을 깨달았다. (그 일로 충격받아 다시는 시위에 나간 적이 없다)
어쨌든 그 시기에 알게 된 몇몇 친구들과 SNS 팔로우가 유지됐는데, 그 친구들은 소위 극우 콘텐츠를 지속적으로 공유했다. 개중에는 내가 도저히 이해할 수 없는 혐오 조장 콘텐츠도 존재했다. 이태원 참사 희생자에 대한 말도 안 되는 조롱과 비난을 퍼붓는 영상도 있었다. 이를테면 그들을 향해, 일이나 공부는 안 하고 해외에서 악마를 숭배하는 기념일인 할로윈 따위를 찬양하느라 멍청한 죽음을 맞은 한심하고 게으른 인간들이라는 프레임을 씌워 그들의 죽음을 정당화하는 거다. 당일 이태원 근처 가게에서 밤까지 일하다가, 퇴근하고 친구와 함께 문제의 골목에 들어섰던 나는, “여기 막혔어요!”라는 누군가의 목소리에 간발의 차로 그곳을 빠져나올 수 있었다. 그날 밤 바로 옆에서 무슨 일이 일어나고 있었는지 다음 날 뉴스를 통해 알게 된 나는 패닉 상태에 빠졌다. 하마터면 내가 죽을 수도 있는 입장이었다. 그런데・・・. 추모하고 기억하고 반복하지 말아야 할 죽음을 비웃는 콘텐츠가 존재한다는 게, 그걸 내 친구들이 SNS에 공유한다는 게 너무 참담했다.
시간이 지날수록 나는 다양한 쟁점에 대해 완전히 좌경화되지도, 그렇다고 우경화되지도 않은 애매한 위치에 존재한다는 사실을 인지했다. 아마 다른 친구들도 쟁점 하나하나 따지고 들어가면 그럴 테지만, 온라인 세상에는 마치 극좌와 극우만 존재하는 것 같았다. 나의 비빔 인간적 특수성에 의해 알고리즘도 혼란스러웠는지 나에게는 양극단의 콘텐츠가 모두 표시되었는데, 그럴수록 나는 너무 혼란스럽고 세상이 위험하게 느껴졌다.
이 경험은 AI 마케팅의 일환인 알고리즘의 문제점을 단적으로 보여준다. 나와 내 주변인의 클릭, 시청, 좋아요 패턴을 기반으로 유사한 콘텐츠를 반복 노출하는 알고리즘은 더 자극적이고 더 극단적인 콘텐츠에 반응하게 된다. 콘텐츠 제작자도 이러한 알고리즘의 특성에 발맞춰 더욱 극단적인 콘텐츠를 재생산하게 된다. 그 결과 극우・극좌 콘텐츠가 과도하게 증폭되는 결과를 낳는다.
앞서 이야기했듯 현실의 사람들은 비슷한 정치 성향을 가지고 있더라도 쟁점에 따라 의견이 다양하고 유동적일 수 있다. 보수적 정치관을 가진 사람일지라도 텀블러를 쓰고 분리배출을 생활화할지도 모른다. 그러나 알고리즘은 사람을 극단적 분류로 나눠버린다. 이는 다양성을 지우는 일종의 폭력이며, 자율성 침해에 해당한다.
이러한 문제에 대해, 사람은 생각이 있으니 알아서 비판적으로 판단할 수 있다는 반박이 있을지도 모른다. 그러나 반복된 노출은 무의식에 영향을 미친다. 알고리즘은 습관화에 가깝기 때문에, 노출 자체가 생각을 형성하고 다시 알고리즘의 편향으로 이어지는 악순환이 반복된다. 디지털 리터러시가 낮은 어린 사용자의 무의식은 알고리즘의 영향을 더 크게 받는다. 디지털 기기를 처음 접하는 연령이 점점 낮아지는 것을 감안했을 때, 왜곡된 정보를 진실로 받아들이는 사용자가 앞으로 더욱 늘어나게 될 우려가 있다.
정보의 바다 속에서 알고리즘이 없다면 오히려 정보 과잉으로 혼란스러울 것이라는 주장도 있을 수 있다. 나의 선택적 취향에 적합한 정보의 정렬은 어쩌면 어느 정도 필요할지도 모른다. 그러나 인공지능의 투명성이 완벽하게 보장되지 않는 상황에서, 내가 뭘 보고 있는지, 왜 이 콘텐츠가 추천되는지에 대한 설명 없이 주입되는 정보는 위험하다. 이는 정치적 선동 등으로 악용될 우려가 다분하다.
정치 마케팅 분야에서 AI의 악용 우려는 이미 현실이 되고 있다. 2021년 초에 있었던 미국 국회의사당 폭동 사건을 대표적인 예로 들 수 있다. 미국 대선에서 조 바이든이 도널드 트럼프를 누르고 승리하자 트럼프의 지지자들이 선거 조작 음모론을 주장했고, 이는 SNS 플랫폼의 알고리즘을 통해 급속도로 퍼져나갔다. 트럼프 지지자들은 ‘선거가 조작됐다’는 확증 편향적 정보만 소비하게 되었고, 극우 음모론 커뮤니티에서 선동적인 콘텐츠가 확산되었다. 이런 상황에서 트럼프 본인도 지지자들의 행동을 부추겼다. 결국 수천 명의 트럼프 지지자들이 국회의사당에 몰려들어 건물을 점거했고, 경찰과 충돌, 기물 파손 등 폭력 사태가 발생하여 5명의 사망자와 수백 명의 부상자가 발생했다.
비슷한 사건이 얼마 전 우리나라에서도 재생산된 바 있다. 2025년 1월 19일 서울서부지방법원 점거 폭동 사건이 그것이다. 가상 공간에서 부풀려진 상황이 현실에 영향을 미치고 있다. 의도와 비의도가 섞여 시민의 양극화, 이원화가 심화된다. 전쟁에서 가장 중요한 준비는 상대방을 비인간화하는 것이라고 한다. 나는 AI 마케팅이 보이지 않는 전쟁 무기로 활용되고 있는 것처럼 느껴진다. 나와 나의 적으로 세상을 이분화하고, 적을 색출해 내고 비인간화하는 방식으로 알고리즘이 점차 발전한다면, 이는 국가 내부에서 전쟁이 발발할 가능성에 큰 영향을 미칠 수 있으리라고 생각한다.
개인의 SNS 추천 콘텐츠는 사회적 현실 인식에 큰 영향을 미친다. AI 마케팅에서 완전히 자유로울 수 없는 디지털 시대를 사는 우리는, 알고리즘은 중립적이지 않고 얼마든지 악용할 수 있으며 사용자의 자율성을 침해할 수 있다는 사실을 반드시 명심할 필요가 있다. 결국 AI 마케팅이 사회에 긍정적으로 기여하려면, 기술 자체보다 그 기술을 어떤 윤리와 책임 구조 속에서 활용할 것인가가 관건이다. 모든 책임을 설계자나 사용자 한쪽에만 돌리는 것은 불가능하며, 설계자, 플랫폼, 정치 주체, 이용자 각각에 적절히 책임을 분산시켜야 한다.
AI 알고리즘을 설계・개발하는 기술자 및 기업에는 알고리즘이 어떤 데이터를 학습하고, 무엇을 우선순위로 삼을지 결정해야 할 책임이 있다. 이에 따라, 감정 조작이나 정치적 편향 콘텐츠의 확산 가능성을 예측하고 이를 제한하는 윤리적 설계 기준을 마련해야 한다.
플랫폼 운영자의 책임도 있다. 콘텐츠가 유통되는 통로 역할을 하는 유튜브, 페이스북, 인스타, (구)트위터 등 플랫폼은 추천 알고리즘의 편향성과 투명성을 평가하는 알고리즘 감사 시스템을 도입할 수 있겠다. AI를 통해 허위 정보와 선동 메시지를 유포하거나 특정 행동을 유도하는 정치 세력에게 플랫폼 측에서도 책임을 물어야 한다. 트럼프의 경우 트위터에서 계정 영구 정지 조치를 당했다고 한다. 이런 식으로 악용에 따른 집단 선동 시 처벌 기준을 명확화하고 법 적용 사례를 공개하는 것도 좋겠다.
중・고등 필수 교육 과정에 AI와 디지털 윤리 교과과정을 포함하는 것도 반드시 필요하다고 생각한다. 또, 정치적 광고・선전 콘텐츠의 사전 등록제 또는 신고 의무제를 도입하는 등 여러 가지 장치를 통해 AI가 사회적 무기가 아닌 공공재로 기능하도록 해야 한다.
하지만, 제도적으로 만반의 노력을 기울인다고 해도 문제는 여전히 남는다. AI 마케팅이 개발되기 이전에도 혐오 선동 사이트는 존재했다. 다만 현대에는 그러한 극단적 의견의 확산이 기하급수적으로 빨라졌을 뿐. 투명성을 평가하고 콘텐츠를 걸러내는 과정에서조차 담당자의 편견이 개입될 수 있고, 어디까지가 표현의 자유이고 어디부터가 정치적인지, 진정한 중립이란 무엇이며 과연 실현할 수 있는지 잘 모르겠다.
그렇기에 기술을 둘러싼 끊임없는 논의와 비판적 토론을 가능하게 할 열린 공론장, 특히 대학 공동체와 같은 성찰적 공간이 중요하다고 생각한다. 인공지능 교양수업을 듣기 전과 후, 즉 수업을 듣고 학우들과 토의하며 성찰적 에세이를 쓰기 전과 후를 기준으로 AI를 대하는 나의 자세는 많이 달라졌음을 실감한다.
새로운 기술이 민주주의와 공존하려면, 그 힘의 흐름에 대해 더 많이 묻고, 더 철저히 감시하고, 더 깊이 성찰해야 한다. AI 기술은 물론 민주주의 자체의 역사도 길지 않다. 소수에 의해 휘둘리거나 지배되지 않는 이상적인 민주주의 국가를 위해서는 시민 개개인의 역량과 힘이 증대되어야 한다. 이를 위해 우리는 안전한 공간에서 더 많이 틀리고 배울 기회가 필요하다.
내가 비빔 인간이라는 사실이 내게 평생 두려운 숙제였지만, 어쩌면 우리는 모두 어떤 기준에선가는 비빔 인간인지도 모른다. 일부분에 고추장과 나물이 섞여 있든, 똥이 묻었든, 겨가 묻었든, 세상에 완전무결한 인간 집단은 없는지도 모른다. 요즘의 나는 그 사실을 받아들이는 것이 인생의 가장 큰 과업처럼 느껴진다.
나와 다른 타인을 비웃거나 무서워하는 일을 멈추고 싶다. 그때 비로소 내 인생을 맛있는 비빔밥처럼 삼켜낼 수 있을 것 같다.
2025.4.21. 대학 입학 첫 학기에 수강한 인공지능 교양 수업 에세이 과제.