[피워내다] 편집위원 느루
모두가 AI! 4차 산업혁명!을 외칠 때, 누군가는 그 목소리에 태클을 걸 필요가 있다고 느꼈다. 권력자들과 미디어는 ‘AI가 우리나라의 미래 먹거리’라고 말하고 다니며 그 전문인력 양성에 대한 목소리를 높여 왔다. 그들의 말만 들으면 AI는 무엇이든 척척 해낼 수 있는 만능 요술봉과 다름없다. 그런데, 정말 AI는 무해한가? 유튜브 알고리즘, ChatGPT 등등, 많은 일상을 기계학습이 잠식해 나가기 시작한 지금 이 시점에서, 정말 이들의 부작용은 없다고 말할 수 있는가? 그래서 많은 사람이 되돌아보지 않았던, 아니 어쩌면 되돌아보지 않으려 한 AI의 그림자를 돌아보려고 한다.
알고리즘
필터버블 현상이라는 용어가 있다. 온라인의 정보 제공자가 정보 이용자가 좋아할 법한 내용을 걸러서 보여줌으로써 이용자의 편의를 증진함과 동시에 다른 정보에 노출을 제한하는 현상을 일컫는다. 특히 유튜브 알고리즘의 필터버블 현상을 다룬 연구는 더러 있다. “보수 계정에서는 보수 성향의 영상이 더욱 추천되고 진보 계정에서는 진보 성향의 영상이 더욱 추천”된다는 신유진의 연구 결론은, 어쩌면 우리가 일반적으로 생각한 검색 알고리즘의 부작용과 크게 다를 바가 없을지도 모른다. 알고리즘은 자유를 수호함과 동시에 은폐를 지향한다. 무해한 것들은 살아남기 힘든 알고리즘의 물결 밑에서, 수면 위로 떠오르는 것은 유해한 것들이다. 유해한 것들은 알고리즘에 노출되고 더 많은 이들의 시선을 끈다.
알고리즘이 나쁜 방향으로 작동하기 위해서는 크게 두 가지 경우의 수가 있다. 하나는 알고리즘에 대한 관리감독이 전혀 이뤄지지 않는 경우, 또 다른 하나는 유해하거나 거짓 정보를 담고 있는 컨텐츠가 갈수록 교묘하고 구별하기 어려워지는 경우다. 축구선수 이강인의 파리생제르맹 이적설이 파다할 때, 한 유튜브 쇼츠 영상의 조회수가 1100만 회를 넘겼다. 파리생제르맹의 간판 스타 킬리안 음바페가 인터뷰에서 이강인을 언급한 영상처럼 만들었지만, 실제론 지난 2021년 유로 2020 당시 음바페의 인터뷰 영상을 악의적으로 편집하고 일본 기자의 음성을 AI로 만들어 입힌 ‘완전한 가짜뉴스’였다. 아예 없었던 인터뷰 내용을 마치 있었던 것처럼 만들어 낸 영상에 사람들은 1170만 조회수라는 뜨거운 관심으로 화답했다. 그렇게 있지도 않은 ‘일본 기자’에 대한 반감과 혐오를 양산하고 재생산하는 데에 톡톡한 기여를 함과 동시에, 채널 소유주는 상당한 광고 수익을 얻었음이 예측됐다. 한겨레의 보도에 따르면, 유튜브 채널 분석 사이트인 ‘녹스 인플루언스’는 “이 채널의 조회 수에 따라 받는 광고 수익이 한 달에 약 5300만 원에 달할 것으로 추정했다”고 한다. 이 사례를 통해 알 수 있는 것은, 가짜뉴스와 그것이 가져올 수 있는 파급력은 어떤 차원에서는 미디어 리터러시의 문제이기도 하며, 다른 차원에서는 알고리즘과 AI가 만들어 낸 파열음이기도 하다는 사실이다. 설령 가짜뉴스가 떠돈다고 할지언정 그것을 빠르게 인지하고 알고리즘의 파도에 올라타기 전에 컨텐츠의 유포를 막으면 되는 일이다. 그런데, 자극적이고 교묘한 가짜뉴스는 정말 구분해 내기 쉽지 않을 수 있다. 누군가에게 책임을 물으려고 하는 것이 아니다. 온라인을 떠도는 정보는 누군가에 의해 왜곡되었을 수 있으며, 심지어는 지어낸 것일 수도 있다는 사실을 ‘언제나’ 잊지 않아야 한다. 그리고 알고리즘을 배포하는 주체가 가짜뉴스의 책임에서 자유로운 것도 아니며, 실제로도 유튜브에 따르면 ‘유해한 정보’의 흐름을 멈추기 위한 ‘어느 정도’의 노력은 하고 있다. 신뢰성이 떨어지는 콘텐츠와 커뮤니티 가이드라인으로 판단하기 애매한 경계성 콘텐츠들이 파급력을 갖지 않도록 순위를 낮추거나 추천 영상에서 삭제하도록 조치하고 있으며, 이를 막기 위해 2만여 명의 평가단을 고용했다고 밝혔다.
한편, 권력자가 임명한 공직자 중 한 명이, 자신이 운영하던 구독자 21만 명 규모의 유튜브 채널을 폐쇄하고 인사청문회에 임했다는 사실을 접했다. 미디어가 보도한 해당 유튜브 채널 컨텐츠의 면면에 대해서 굳이 언급하는 것은 꽤 피곤한 일이니, 구체적으로 열거하진 않겠다. 허나, 분명한 것은 정치적 소재를 다룸으로써 어떤 ‘인사이트’를 제공했고, 그것이 알고리즘의 파도에 올라타기 매우 좋았다는 점이다. 한 언론사의 보도에 따르면 해당 공직자는 유튜브 채널을 운영하면서 3억 원 넘는 수익을 거뒀다고 한다. 왜, 하필이면 인사청문회를 앞두고 채널을 폐쇄했을까. 알고리즘의 파도에 올라탐으로써 적지 않은 수익을 거둔 ‘공인’이 ‘알고리즘의 파도에서 내려왔다’는 사실로 다시 알고리즘의 파도에 올라탔다는 사실이 굉장히 오묘하게 느껴진다. 물론 그때는 알고리즘의 주체였지만, 지금은 알고리즘의 객체가 된 채로 말이다. 무엇이 두려워서 상당한 수입을 가져다줄 알고리즘을 포기했는가? 많은 크리에이터들은 알고리즘을 이끌어가는 주체가 되고 싶어 한다. 하지만, 여러 유명 인사들이 별로 언급되지 않고 싶은 일에 연루되어 알고리즘에 이끌리는 경우를 우리는 몇 년째 목격하고 있다. 알고리즘의 주체가 되고 싶지만 객체는 되기 싫은, 그 마음은 무엇을 가리키는 것일까.
알고리즘의 존재를 의식하는 사람들은 알고리즘을 이용해서 원하는 정보를 선택하고, 더 나아가 수익을 얻기까지 한다. 하지만 알고리즘의 존재를 의식하지 못하는 정보 이용자라면, 알고리즘의 파도에 몸을 맡기는 것이 정말 이로운 일일지 고민할 필요는 있다. 더욱 강력한 확증편향 기제로 작동하는 알고리즘은 독이 든 성배가 될 수 있다는 것이다. 최소한 정보 검색에 있어서 선택과 은폐는 양립가능하기 때문이다. 어떤 유튜브 영상을 선택함으로써 다른 유튜브 영상은 철저히 은폐된다. 문제는, 선택은 가시화되지만 은폐는 현현되지 않는다는 점에 있다. 눈에 보이지 않는 것들이 곧 부존재를 의미하진 않는다는 사실을 잊지 않아야 한다. 그런데 이런 글을 쓰는 나조차도 알고리즘이 제공하는 ‘은폐’를 망각할 때가 있다. 그만큼 알고리즘은 강력하다. 알고리즘은 명백한 ‘있음’을 ‘없음’으로 만들어 버릴 수 있는 동시에, ‘없음’을 ‘있는 것’처럼 만들 수도 있다. 더 큰 문제는, 알고리즘에 대한 성찰이 없다면 ‘없음의 있음’을 지각하는 것이 결코 쉽지 않다는 점에 있다. 이것이 알고리즘 개발자들만의 책임은 아닐 것이다. 그렇기에, ‘돈이 되는 것’, ‘효율성을 극대화하는 것’을 갈망하는 인간들의 욕망과 구조의 그림자가 만들어 낸 알고리즘의 폭주에 한 번쯤은 의구심을 가질 필요가 있다.
AI의 그림자와 불문율
불문율을 학습하는 방법으로 AI는 ‘불문율 이외의 데이터를 학습하기’라는 기묘한 대안을 제시한다. 가령 ‘연세대 대학원생은 청경관에서 학식을 먹으면 안 된다’는 불문율이 존재한다고 치자. 온라인 공간에 이런 불문율에 대한 정보를 일절 얻을 수 없는 상황을 가정할 때, AI는 불문율을 어떤 방식으로 학습할 수 있을까. 청경관에서 결제한 카드의 소유주 중에 대학원생이 없거나, 혹은 얼굴인식 AI를 청경관 내의 CCTV에 도입하여 대학원생의 존재 여부를 파악하면 될 것이다. 하지만 이런 정보들은 단지 ‘청경관에 대학원생이 없다’라는 사실만 보증해 줄 뿐, 이는 우리로 하여금 ‘연세대 대학원생은 봄학기에 청경관에서 학식을 먹으면 안 된다’는 불문율이 존재한다고 추론하게 하는 확실한 증거가 되지는 못한다. 더군다나 앞서 언급했던 ‘카드 소유주 파악’ 혹은 ‘얼굴인식 AI 도입’ 등과 같은 정보수집 기법은 누가 봐도 현행법에 저촉되어 형사처벌을 받을 수 있는 범법행위라는 것이다. 물론 ‘청경관 불문율’을 증명해 낼 방법은 내가 언급한 것 이외에도 수없이 많겠지만, 분명한 것은 불문율이 기계가 학습할 수 있는 자연어의 형태로 존재하지 않는 한 그것을 유추해 내기 위해서는 수많은 데이터를 기반으로 한 정확한 모델이 필요할 것이라는 사실이다.
“세상에는 아직 모종의 힘에 갇혀 언어화되지 못한 일들이 있고, 언어화되지 못하는 일들은 '금지된 것' 너머 '금기시된 것'들의 힘에 의해 계속해서 숨겨진 상태를 지속한다. 숨겨진 진실들은 인공지능이 활용할 수 있는 가시화된 지식이 아니다. 더욱이 주어진 강령을 어기지 않는 챗지피티는 원칙적으로 금지되고 나아가 금기시된 문제에 대한 메타적 인지를 할 수 없게 되어 있다. 챗지피티가 사회와 한 무언의 약속에 따르면 금기시되는 대상은 딥러닝의 대상에 포함되지 않기 때문이다. 따라서 금기를 위반하지 않는 챗지피티는 창의적일 수 없다.” (박혜진, ‘금기를 넘는 힘, 힘으로서의 금기’. 문학잡지 릿터 41호 중)
사실, ‘청경관 불문율’이 많은 연세대 대학원생 사이에 공유될 정도가 된다면, 온라인 공간에서의 언급 또한 늘어날 것이며 AI가 그 존재를 알아차리는 데에는 큰 시간이 걸리지 않을지도 모른다. 그리고 딥러닝 모델의 일반화 성능을 평가하는 잣대 또한 연구자마다, 방법론마다 차이를 보일 수 있기 때문에 불문율을 추론해 냄에 있어서 ‘100% 정확한 예측력’을 보이는 기계학습 모델을 요구하는 것은 어불성설일 수 있다는 점을 잊지 말아야 한다. 그렇기에 ‘청경관 불문율’이라는 예시는 그 자체로 기계적 엄밀함을 가지지는 않을 수 있다는 점 또한 짚고 넘어가려 한다.
그럼에도 불구하고, ‘청경관 불문율’은 그나마 AI가 학습하기 쉬운 예시일 수 있다는 점도 고려해 볼 만하다. 불문율을 추론해 내기 위한 데이터들의 차원도 복잡하지 않으며 추론을 위한 회귀식을 구성할 변수 또한 사람들이 직관적으로 이해할 수 있기 때문이다. 그런데, 인간 세상에 굴러다니는 이야기들의 층위는 상상 그 이상으로 복잡하다. 같은 사건을 두고 그것을 바라보고 해석하는 방법이 천차만별이기 때문이다. 더욱이, 이야기는 ‘맥락’ 속에 ‘시선’을 담고 있다.
인간의 내러티브는 우리가 상상하는 그 이상으로 복잡하게 얽혀 있다. 가령, 우리가 ‘나와 A라는 사람의 관계’를 단편적으로 떠올릴 때 ‘나와 A는 사이가 좋지 않다’라는 사실을 나의 친구들이 받아들이는 방식에 따라서 ‘나와 A의 관계’는 수없이 많은 방식으로 정의되고 해석된다. 이를 조금 더 넓은 차원에서 바라보면, 인간과 인간 사이의 관계를 정의하는 방식은 사람들이 서로를 바라보는 시선에 따라 다르며, 그 모든 시선들을 벡터로 그려내고 이를 모델에 학습시켜 회귀식으로 추론해 내는 과정에서 상당한 불확실성에 부딪힐 것임을 예측하는 것은 그리 어렵지 않다.
“사회에서 벌어지는 많은 현상이 이와 유사한 비선형 역학 관계를 보여준다. 사랑에 빠질 확률, 소득 분배, 예술 작품의 인기도 등 거의 모든 현상이 지루하고 단순한 선형 관계(X가 증가함에 따라 Y가 일정한 비율로 증가하는 관계)를 따르지 않는다. 그리고 이러한 비선형 요소가 비선형 방식으로 상호작용하면서 전체 시스템이 엄청나게 복잡해진다.” (혁명을 위한 수학 중)
혹자는 불문율을 어떻게든 학습할 수 있지 않으냐고 반박할 수 있는데, 사실 그런 식의 반문에 대해 제대로 답할 사람은 아무도 없다. ‘어떻게든’이라는 극단적인 표현을 써가면서까지 인공지능의 무궁-무진한 잠재력을 기대하는 이들을 설득할 방법은 없다. 그러나, 자연어처리를 통해 댓글, 커뮤니티 등 온라인 공간의 반응을 학습시킬 수 있지만, 이를 자연어처리 모델이 학습하는 것이 과연 바람직한지 반문하는 과정은 동반되어야 한다. 자연어처리를 다루는 전공수업 프로젝트를 수행하기 위해 몇몇 커뮤니티들의 댓글 데이터들을 전처리하고 이를 시각화해 본 경험이 있다. 그런데 결과가 처참했다. 특정 인물 키워드가 포함된 댓글 말뭉치에 단순히 ‘단어가 등장하는 빈도’만으로 시각화를 해보니 단어 언급 빈도가 다섯 손가락 안에 드는 단어 중 두 개가 차마 글로 쓰기조차 꺼려지는 욕설과 비속어였다.
발상의 전환이 필요하다. 익명성을 보장하는 온라인 공간에서의 발언이 ‘자유’를 바탕으로 이뤄진 것이기 때문에 그 자체로 기계학습의 가치가 충분하다는 주장은 ‘자유’의 그림자를 전혀 톺아보지 않은 매우 위험한 시도일 수 있다. 온라인 공간에서 이뤄지는 대화의 대다수는 오프라인 공간에서 발화되지 않는다. 그만큼 온라인 공간을 떠도는 어휘와 표현은 극단으로 치우쳐 있다는 것이다. 즉, 온라인 공간에서의 웹 크롤링과 자연어처리를 통한 기계학습이 어떤 분석을 수행할 수 있을지에 대한 의문을 제기할 필요가 있다. 온라인 공간은 분명 사회과학자들이 주목해서 바라보아야 할 공론장의 지위를 얻었다. 하지만 온라인 공간에서 자연어처리를 통해 얻은 정보들을 바탕으로 오프라인의 여론을 분석하겠다는 시도는 자칫하면 ‘극단적인 언어로 넘겨짚기’가 될 수 있다는 점을 직시해야 한다. 포털 사이트 댓글이나 커뮤니티 글들과 실제 전화 기반 여론조사들 간의 온도 차가 이상하리만큼 크게 느껴진다는 사실이 이를 증명한다. 아무리 유선 기반 여론조사의 신빙성이 의심되더라도, 좋아요 갯수가 곧 지지율이 된 온라인 공간만큼 극단적인 수치를 보이는 경향이 있는가? 최소한 유무선 기반 여론조사는 댓글의 좋아요처럼 ‘나와 다른 의견’을 찍어 누르고 억압하지는 않는다. 그렇기에 온라인 공간의 여론을 분석하는데 있어 ‘좋아요’라는 가중치를 부여해서 자연어처리 연구를 수행하는 것이 얼마나 왜곡된 허상일 수 있을지 진단하는 과정이 절실하다.
사회과학과 자연어처리
생성형 AI의 작동을 위해서는 모델을 학습시킬 데이터가 필요하다. 생성형 AI가 먹고 자라는 데이터는 자연어의 형태로 존재한다. 그런데 온라인의 데이터가 우리가 생성해 내는 ‘자연어’의 전체라고 생각하면 오산이다. 우리는 비문 덩어리의 문장을 매일 남발한다. 자연어로 처리되지 않은 ‘문장’은 기계가 학습할 수 없다. 온라인의 언어는 전처리를 통해 기계가 학습할 수 있을 단계까지 정제할 수 있다. 그래서 분명히 온라인상의 텍스트 데이터가 우리가 말로 표현하는 데이터보다 더 정형화되어 있으며, 따라서 기계가 학습하기 더 좋은 형태인 것은 맞다. 하지만 온라인의 텍스트 데이터는 인간 세계의 모든 언어 데이터를 포괄하지는 않는다. 명문화되지 않은 언어는 딥러닝 모델이 처리할 수 있는 ‘자연어’가 아니다. 많은 분야에서 ‘명문화되지 않은 데이터’들의 명문화가 이뤄지고 있지만, 이는 어디까지나 ‘명문화’가 누군가의 필요에 의해 이뤄진다는 떨떠름한 현실을 들춰낼 뿐이다. 대한민국 법원이 판결문을 기계학습 모델에 학습시키면 판사를 도울 수 있는 좋은 도구가 될 수 있을 것이라는 기대 그 이면에는 ‘도저히 명문화될 수 없는 것들’에 대한 경멸이 숨 쉬고 있다. 이는 ‘언어에 격이 존재하는가?’라는 의문으로 이어진다. 어떤 언어는 기계에 의해 학습되어 훌륭한 대안을 제시하고, 또 다른 언어는 ‘가치 없는 언어’로 치부되어 기계학습 개발자들의 관심조차 끌지 못하는 현상이 과연 제대로 된 AI의 발전 방향이 될 수 있을지 근본적인 의문을 제기해야 한다.
자연어처리를 통한 텍스트 분석은 분명 사회과학 연구자들에게 획기적인 인사이트를 가져다줄 수 있는 양적 연구방법론이 맞다. 하지만 이 분야를 계속 공부하고 실습하면서 느끼는 점은, 최소한 사회과학의 관점에서 자연어처리가 과연 ‘가설에 대한 근거를 제시하는 연구방법론’ 그 이상의 역할을 수행할 수 있냐는 것이다. 더군다나 자연어처리의 궁극적 한계는 명문화된 텍스트만을 다룬다는 점에 있다. 지금까지는 계량할 수 없었던 형해화된 여론의 형태를 더욱 구체적으로 알 수 있다는 장점을 인정하더라도, 그것을 분석할 수 있는 분야가 온라인의 텍스트와 명문화된 언어들에 국한된다는 것은 그 자체로 심대한 한계를 가진다. 명문화될 필요가 없다고 생각한 사람들의 이야기가 어쩌면 양적방법론은 결코 접근할 수 없는 그림자 속에 남게 될 수 있다는 것이다. 그렇게 명문화되지 않은 이야기는 기계학습의 대상이 되지 못한다. 쪽방촌에 찾아가서 주민들의 이야기를 직접 듣는 방식의 문화연구와 질적방법론이 사회과학 연구에 있어서 주변화되어서는 안 되는 가장 중요한 이유이기도 하다. 그렇기에 기계학습은 평등하지 않다. 은폐하려고 하지도 않았는데 개발자들과 이용자들의 시야에서 사라지는 데이터는, 사람들의 인위적인 관심이 발생하지 않는 한 수면 위로 끌어올려지기 쉽지 않다.
사회과학의 본질은 구조가 드리운 그림자를 걷어내는 것에 있다고 생각한다. 아니, 어쩌면 사회과학의 본질이 아니라 학문의 본질일지도 모른다. 그리고, 그림자를 없애는 가장 좋은 방법은 그림자가 드리운 공간에 빛을 비추는 것이 아니라, 그림자를 만들어 낸 거대한 구조를 ‘붕괴’시키는 것에 있다. 그래서 하나의 방법론에 몰입하는 것은 생각보다 더 위험할 수 있다는 사실이 피부에 와닿는 오늘날이다. 묻지마 살인, 악성 민원, 위험관리 실패 등의 반복되는 비극들을 단순히 어떤 한 변수를 수정함으로써 고치려는 게으르고 무책임한 발상을 떨쳐버리기 위해서라도, 여러 방법론들을 동원한 총체적인 진단이 필요하다. 그걸 위해서라도, 온라인을 떠도는 정보만을 바탕으로 비극을 예측하려는 시도에는 언제나 의문을 던져야 한다. 비극을 예방하는 가장 좋은 방법은 기계학습만을 외치며 온라인 데이터를 수집하고 분석하는 것에만 기대는 것이 아니라 사람들을 빈곤에 고립시키지 않는 구조를 만드는 것임을 권력자는 기억해야 한다. 비극을 마주할 이들에게 가장 필요한 것은 챗GPT와 로봇이 보내는 위험신호가 아니라 토막 난 사회의 연결망을 복원시키는 것에 있다.
자본과 권력이 포장한 AI
“사회를 계량할 수 있는가?”라는 연구자로서의 본질적인 의문은 단순히 특정 변인이 어떤 현상으로 이어진다는 상관관계를 분석하는 것뿐만 아니라 사회를 그려내는 방정식 속 변수가 대체 몇 개가 있는지 파악하는 것으로부터 출발해야 한다. 이것은 연구자의 책임이자 또한 권력자와 자본가, 그리고 미디어의 책임이기도 하다. 그들은 단순한 언어로 사실관계를 은폐하고 자신은 무언가를 열심히 했음을 어필함으로써 사람들의 인지를 왜곡시켰다는 책임으로부터 빠져나갈 알리바이를 만든다. 책임과 사죄라는 단어를 입에 올리기 두려워하는 권력자들, ESG와 그린워싱으로 기업의 비즈니스를 깨끗하게 포장하려는 자본가들, 조회수에 영혼을 팔아버린 유튜버와 미디어 종사자들 모두에게 책임이 있다. 특히, 단편적이고 선언적이며 직관적인 언어를 이용해 공론장의 의제들을 잠식해 나가는 정치인들을 가장 경계해야 한다. 권력자가 한국사회라는 다변수-비선형 방정식의 존재를 알면서도 시민들로 하여금 직관적인 이해를 이끌어 내려고 하는 시도는 그야말로 최악이다. 복잡한 것은 복잡하게 말할 필요가 있다. 한국사회가 다변수-비선형방정식이라는 사실조차 모르면서 ‘이것이 우리 사회의 가장 심각한 문제다!’라고 말하고 다니면 권력자와 그를 둘러싼 보좌진의 게으름을 비판해야 한다. 기계학습보다 심각한 문제는 어쩌면 권력자의 확증편향과 게으름에 있을 수 있다는 사실을 기억해야 하는 이유다. 그런 권력자들의 입에서 나오는 기계학습은 사회의 그림자를 더욱 강력한 어둠 속으로 추동하는 힘이 될 뿐이다.
“오늘날 비정상적인 사람은 자기 자신이, 또는 자신이 행하는 일이 어떻든지 간에 한 방향으로만, 그리고 긍정적으로만 사는 사람이다. 완전한 복종과 적응. (완벽히 표준화된 존재) 무수히 많은 사람들이, 모든 이중적이고 해결할 수 없는 것에 대한 고려를 제거함으로써 현실성에, 자기만의 현실성에 들러붙어 있다. 이런 긍정적 경직의 불가사의, 실제적인 세상에 대한 의심을 적극적으로 유보하는 불가사의는 전혀 풀리지 않고 있다. 이것은 '악'의 이해에 관한 모든 질문을 제기한다. 우리는 기술적 조작에 의해 단순해졌다. 그리고 이런 단순화는 우리가 디지털 조작에 이르게 되면 어떤 미친 듯한 흐름을 탄다. 그렇다면 '악'의 복화술은 어떻게 되는가? 이는 (인간의 이중성이라고 하는) 옛적의 근성과 동일하다. 즉, 개인이 자기 자신과 화해하고, 디지털의 은총 덕분에 동질화 되어서 그 근성이 개인을 떠나게 되고, 모든 비평적 사유가 사라지게 되면, 그러면 그 근성은 사물들 속으로 옮겨 간다. 악의 복화술은 기술 그 자체 속으로 옮겨간다. 진실로 이중성은 지워지거나 삭제될 수 없다. 그것은 게임의 규칙, 일들의 역전 가능성을 조인하는, 거역할 수 없는 조약의 규칙이다. 따라서 인간 고유의 이중성이 인간을 버리면 역할이 뒤집힌다. 즉, 기계가 탈선하고 불안정해지며 변태적, 악마적, 복화술적으로 된다. 이중성은 기꺼이 다른 편으로 넘어간다. 주관적 반어법이 사라지면 그리고 그것은 디지털의 유희 속에서 사라진다. 그러면 반어법은 객관적이 된다. 또는 침묵한다.” - 장 보드리야르, 사라짐에 대하여 중
혹자는 ‘디지털 규범’을 만드는 것의 중요성을 언급한 적 있는 권력자의 발언을 근거로 권력자는 이미 책임을 다하고 있다고 주장할 수 있겠다. 그런데, 규범을 만들어 내는 주체가 권력과 자본임을 환기할 필요가 있다. 생성형 AI는 다른 곳도 아닌 지금의 사회 구조를 그대로 투영하고 있다. 인간 사회가 ‘윤리’라고 판단한 것들을 AI는 ‘윤리’로 대상화하며 인간들이 ‘진리’라고 여긴 가치들을 AI는 ‘진리’로 구체화할 것이다. 다수성과 보편성을 띤 자본가와 권력자가 지배하는 ‘언어’의 세계 속에서 ‘디지털 규범’이 AI라고 한들 다른 형태의 언어로 존재할 수 있을까. 그리고 무엇보다도 AI가 가져올 수 있는 그림자를 ‘디지털 규범’을 마련함으로써 막아낼 수 있다는 발상은 위험하다. 선과 악은 서로 대응되는 안티테제일 수 있지만 ‘구조가 드리운 그림자’와 ‘강제성마저 없는 디지털 윤리 규범’은 서로 대응되지 않는다. AI의 존재 자체만으로 초래될 수 있는 위험은 ‘디지털 규범’을 도입한다고 해서 사라지지 않는다는 것이다. 그래서 AI가 무궁무진한 성장 가능성을 가지고 있다고 어화둥둥 띄워줄 것이 아니라, AI가 미처 빛을 비추지 못한 곳까지 국가가 책임을 다하겠다는 다짐을 하는 것이 필요한 시점이다.
뿐만 아니라, 무책임한 권력자들의 AI 맹신은 그들이 그토록 사랑해 온 법과 원칙을 무너뜨릴 수 있다. 법무법인 광장의 2023년 4월 뉴스레터 ‘ChatGPT와 관련한 지식재산권 이슈 및 시사점’에 따르면, AI 모델의 데이터 학습 과정에서 "웹 스크래핑/크롤링 등의 방식으로 무작위로 콘텐츠를 수집하는 경우", 저작권법 및 부정경쟁방지법에 저촉될 위험이 있음을 경고하고 있다. 또한 ChatGPT의 답변을 활용할 때에 있어서도 타인의 저작권 등 권리를 침해할 경우가 있음을 지적하며, ChatGPT의 답변 사용 시에도 법적 다툼이 발생할 수 있다는 점에 주의를 요구한다.
모든 문학가와 글쟁이는 저작권에 대한 규제를 더욱 강화하고 AI의 기계학습에 더욱 강경히 대응할 것을 제안한다. 글 한 편에 숨 쉬는 작가의 영혼이 자본가들의 손아귀에 있는 AI의 학습 대상이 될 이유는 없다. 글쟁이들이 무서워해야 할 것은 AI 가 아니라 이 틈을 타 저작권 규제를 풀어보려고 하는 자본가들과 지대추구자들이다. 능력주의라는 가면을 쓴, 지대추구라는 뼈다귀뿐인 자본주의 사회에서 글쟁이들이 스스로를 지킬 방법은 더욱 강력한 배제 기제를 만들어 내는 것에 달려 있다. 작가들의 영혼이 담긴 글을 지키는 권리보다 누군가의 글을 기계학습 모델에 학습시키는 권리가 더 중요하다고 말하는 이들의 의견이 자칭 메이저 언론사의 오피니언으로 실리는 지금의 흐름을 분명히 끊어내야 한다.
보다 더 ‘예쁜’ 기계학습 모델을 만들기 위한 과정에서 ‘제거’될 만한 아웃라이어(이상치)들이 세상을 변화시켜 왔다. 세상을 바꿔온 힘은 정규분포 안에서 ‘일어날 법한 일’들이 아니었다. 문학과 사회가 가지는 창의성의 추세선을 기계학습에서 찾는 것에 물음표를 던져야 하는 근본적인 이유다. 보다 더 많은 사람들이 좋아하는 답을 내놓는 기계학습 모델은 이미 밝은 곳에 빛을 더 강력하게 비추고 어두운 곳에는 그림자를 더욱 짙게 드리우는 비례상수로 작동할 위험이 있다. 그래서 더더욱 아무렇지 않게 생성형 AI의 이점을 자랑스럽게 떠벌리고 다니는 권력자와 자본가의 말을 경계해야 한다.
기계학습은 평등하지 않다. 번역기가 만들어 낸 어휘의 모호함을 확인하고 이를 수정할 수 있는 능력은 더 소수에 집중될 것이다. 시간이 지날수록 기계학습은 정규분포 양 끝의 집단들을 더욱 강력하게 구분함과 동시에 은폐할 것이다. 예쁜 기계학습 모델은 ‘인간의 맘에 들 법한’ 달콤한 이야기들을 건넬 뿐, 빛이 비치지 않는 곳에서 더욱 강력한 힘을 추동하며 빛을 앗아갈 것이다. 한쪽으로 폭주하는 사회의 동력을 더욱 강력히 하는 ‘비례상수’인 AI는 우리에게 필요가 없다. AI에 관한 예찬이 주류 담론으로 자리 잡는 지금, 모두의 관심 밖에 있는 것들에 집중하는 날카로운 시선을 벼려가야 한다.
참고문헌
신유진. "유튜브(YouTube) 추천 알고리즘으로 인한 필터버블(filter bubble) 현상 연구." 국내석사학위논문 연세대학교 정보대학원, 2020. 서울
법무법인 광장 뉴스레터, ‘ChatGPT와 관련한 지식재산권 이슈 및 시사점’ 2023.04.07.
장 보드리야르, 사라짐에 대하여. 하태환 옮김. 서울: 민음사, 2012
저스틴 조크, 혁명을 위한 수학: 인공지능과 데이터 과학은 어떻게 자본주의를 뒷받침 했는가?. 고유경 옮김. 서울: 장미와동백, 2022
박혜진, ‘금기를 넘는 힘, 힘으로서의 금기’. 문학잡지 릿터 41호 中, 2023. 민음사
경향신문, 신유진 기자, 추천 알고리즘 적극 설명 나선 유튜브···"가짜 정보와의 전쟁은 진행 중" 2021.10.19.
한겨레, 곽진산 기자, 일본 기자가 이강인 비꼬자 감싼 음바페? 1100만명이 속았다 2023.07.07.
편집위원 느루(hushpond@yonsei.ac.kr)