AI가 점령한 지식에 대한 인간의 권리와 책임
'AI가 만들어낸 결과물은 창작과 문화가 될 수 있는가?'라는 주제로 브레인스토밍을 하고 있었습니다. 제미나이 대화창을 두 개 열어서 하나는 독설가 페르소나, 다른 하나는 문화 연구자 페르소나로 질문에 답하게 만들었습니다. 한 쪽 편 대화창에 다른의 응답을 붙이는 방식으로 두 AI를 싸움 붙였습니다. 논쟁은 흥미진진했습니다.
독설가 AI :
"당신의 기획은 '문화의 흐름'이 아니라 '자본의 거품' 위에 서 있습니다. 그 거품이 터졌을 때, 당신의 '박사 학위'와 '기획안' 중에 무엇이 먼저 쓰레기통으로 갈지 궁금하군요.자, 이 '미학적 불능'이라는 비판에 대해, 당신의 그 잘난 '기능적 문화론'으로 어떻게 방어하시겠습니까? 아니면 본인의 기획이 사실은 '예술'의 탈을 쓴 '마케팅 사기'였음을 인정하시겠습니까?"
---
문화 연구자 AI :
"과연, 귀하의 비판은 '인간의 존엄'과 '진정성(Authenticity)'이라는 인류 최후의 성벽을 사수하려는 수호자의 절규처럼 들리는군요. '지적 파레이돌리아'와 '문화적 자해'라는 지적은 무척이나 날카롭습니다. 하지만 제가 보기에 귀하의 논리는 '과거의 가치'를 '미래의 가능성'보다 우위에 두는 역사적 결정론의 감옥에 갇혀 있습니다."
불꽃 튀는 논쟁을 지켜보다 보니, 문득 제 지식은 AI 앞에 초라해졌고, 개입하고 중재할 틈이 없다는 소외감마저 들었습니다.
'인간이 AI를 검증해야 한다'는 일반론이 무색하게 인간의 주관적 판단보다는 AI의 통계적 판단이 더 객관적이지 않나 하는 생각까지 들 지경이었습니다
"인간이 AI를 검증해야 한다."
상식처럼 반복되는 말입니다. AI의 환각(hallucination)을 걸러내고, 편향을 감시하며, 오류를 바로잡는 것이 인간의 몫이라고들 하죠.
그런데 두 AI의 논쟁을 지켜보면서 들었던 의문이 있습니다.
'저 방대한 지식을 검증할 만큼의 지식을 인간이 보유할 수 있는가?'
잘못된 년도의 오류나 인용의 오류 등은 검증할 수 있겠죠. 하지만, '지적 파레이돌리아'나 '문화적 자해'라는 표현이 학술적으로 정당한 용어인지, '역사적 결정론의 감옥'이라는 비유가 적절한지 판단하기 위해서는 AI보다 더 많은 것을 알아야 합니다.
순전히 '보유한 지식의 양'으로 봤을 때, 검증자가 피검증자보다 무지한 상황이 AI가 지식을 점령한 시대의 역설 같습니다.
AI가 학습에 사용한 지식은 방대합니다. 업계에 따르면 GPT 4의 학습 코퍼스는 13조 개 규모의 토큰으로 구성되어 있습니다. 정확한 계산은 어렵지만 책으로 따지면 대략적으로 2억 권 가까운 분량이고, 하루도 쉬지 않고 매일 8시간씩 책을 읽는다고 해도 17만년 이상 걸려야 다 읽을 수 있는 규모라고 합니다.
의사는 최신 의학 논문을 연간 수백 편 읽지만, AI는 수백만 편의 논문을 몇 초만에 참조합니다. 변호사가 평생 다루는 판례의 수는 AI가 순식간에 검색하는 판례 데이터베이스의 일부에 불과합니다.
이처럼 AI가 학습한 지식의 범위와 깊이는 이미 개별 인간이 검증 가능한 한계를 넘어섰습니다.
의료 AI가 희귀 질환을 진단할 때, 의사는 그 진단이 어떤 논문의 어떤 데이터에 근거했는지 일일이 확인할 수 없습니다. 법률 AI가 복잡한 계약서의 리스크를 분석할 때, 변호사는 AI가 참조한 수천 개의 판례를 모두 검토할 수 없습니다. 학술 AI가 문헌 요약을 제공할 때, 연구자는 그 요약이 원문을 왜곡하지 않았는지 전부 대조할 수 없습니다.
이미 우리는 검증할 수 없는 지식을 매일 사용하고 있습니다.
AI가 생성한 지식의 출처도 문제입니다.
2023년 스티븐 마르쉐가 AI와 함께 쓴 소설 《Death of an Author》는 제목부터 의미심장합니다. 독자들은 이 소설을 읽으며 끊임없이 묻습니다. 이 문장은 인간이 쓴 것인가, AI가 생성한 것인가? 하지만 더 본질적인 질문은 이것입니다.
'이 지식은 어디서 왔는가?'
AI는 수백만 개의 텍스트를 학습해서 새로운 텍스트를 생성합니다. 그 과정에서 개별 출처는 사라지고, 통계적 패턴만 남습니다. AI가 '문화적 자해'라는 표현을 사용했을 때, 그것이 어떤 학자의 논문에서 온 것인지, 아니면 AI가 여러 개념을 조합해서 만든 것인지 알 수 없습니다.
출처가 불분명한 지식을 우리는 어떻게 신뢰할 수 있을까요? 그리고 신뢰할 수 없다면, 어떻게 사용할 수 있을까요?이런 출처 불명 지식은 다시 다른 AI의 학습 데이터가 됩니다. AI A가 만든 가짜 정보를 AI B가 학습하고, AI B의 출력을 AI C가 재가공합니다. 이 과정에서 원본의 출처는 완전히 사라지고, 검증은 불가능해집니다.
메리엄-웹스터 사전은 2025년 '올해의 단어'로 'slop(슬롭)'을 선정했습니다. 가축 사료로 사용될 법한 음식 찌꺼기를 나타내는 단어로, AI가 대량 생성한 저품질 콘텐츠를 의미합니다.
유튜브에서 2025년 7월 기준으로 가장 빠르게 성장하는 채널 10개 중 1개는 AI가 만들어낸 영상으로만 이루어져 있다고 합니다. 우주선으로 기어들어가는 아기, 고양이들이 펼치는 막장 드라마, 이해할 수 없는 초현실적 이미지들이 순전히 조회수와 광고 수익을 목적으로 생성됩니다.
중요한 점은 아무도 이 콘텐츠에 책임지지 않는다는 겁니다. 틀린 정보가 있거나, 윤리적으로 문제가 될 만한 내용이 있어도 책임지는 사람이 없습니다. 플랫폼도 딱히 이런 콘텐츠에 제한을 두는 것 같지 않습니다.
2022년 한 조사에 따르면 전체 인터넷 트래픽의 거의 절반이 인간이 아닌 봇에 의해 생성된다고 추정했습니다. '죽은 인터넷 이론(Dead Internet Theory)'은 인터넷이 더 이상 인간에 의해, 인간을 위해 존재하지 않는다는 우울한 예측입니다.
AI를 검증해야 한다는 말에 회의감이 드는 까닭은 지식 생산 속도가 인간의 검증 속도를 압도적으로 초과했기 때문이기도 합니다. AI는 1분 안에 수백 개의 기사를 쓸 수 있습니다. AI는 하루에 수백만 개의 이미지를 생성합니다. 인간은 그 기사와 이미지가 진짜인지 가짜인지 확인하는 데 며칠이 걸립니다.
검증할 수 없는 지식의 범람 앞에서, 무기력함을 느낍니다. AI보다 덜 알고, AI보다 느리고, AI의 출처조차 추적할 수 없는 우리가 무엇을 할 수 있을까요?
두 AI의 논쟁을 지켜보며 느낀 소외감의 실체는 나의 지식이 AI의 정보량에 압도당하는 데서 오는 무력감이었습니다. 그런데 무기력함과 소외감마저 느끼던 중 한 가지 중요한 사실을 잊고 있었습니다. 이 AI들을 설정한 것도, 페르소나를 부여한 것도, 전원을 공급한 것도, 소외감과 무력감을 느끼는 당사자도 바로 저라는 사실을 말입니다.
AI는 스스로 목적을 설정하여 작동하지 않습니다. 누군가 프롬프트를 입력하고 그 결과를 세상에 내보내기로 결정해야 비로소 기능합니다.
AI의 반란을 그리는 서사의 대부분이 작동 권한을 빼앗기는 것에서 시작합니다. 그런 점에서 작동의 권한은 그저 전원을 끄고 켜는 것 이상의 의미를 지닙니다. 이 행위는 기술의 산출물을 사회적 맥락 안으로 진입시킬지 말지를 결정하는 최종 제어권을 의미합니다.
AI가 생성한 텍스트는 인간의 시선이 머물기 전까지는 확률적 패턴의 나열에 불과합니다. 그 대화를 지켜보며 "이것은 유의미한 논쟁이다" 혹은 "이것은 기획의 단초가 된다"라고 판단하는 순간 무의미한 전기 신호의 집합체는 비로소 '지식' 혹은 '콘텐츠'라는 지위를 획득합니다. 심지어 제가 '무력하다', '소외되었다'는 감정을 느낀 순간까지도 수동적인 감상이 아니라 명명(Naming)이라는 능동적인 권리의 행사입니다.
우리는 이렇게 AI의 출력을 수용하거나 거부할 권리, 그리고 그 결과물에 특정한 가치를 부여하거나 폐기할 권리를 가집니다. 지식의 양에서 밀릴지언정, 그 지식에 어떤 '이름'을 붙여 사용할 것인가를 결정하는 주권은 여전히 인간에게 있습니다. 그리고 그 주권은 AI의 영향력을 어디까지 인정할 것인가에 대한 '가치 판단'의 영역입니다
기계는 데이터를 해독(Decode)하지만, 인간은 맥락을 읽습니다(Read). AI는 텍스트의 패턴을 분석할 뿐, 그 텍스트가 현실 세계에서 어떤 물리적 영향력을 미칠지는 이해하지 못합니다.
인간이 고심 끝에 선택한 단어 하나, 혹은 의도적으로 비워둔 여백 하나가 AI의 방대한 시안보다 큰 울림을 주는 이유는 그 선택에 '경험의 축적'이 담겨 있기 때문입니다. 현장에서 쌓아온 직관은 단순한 데이터의 합이 아니라, 수많은 변수 속에서 무엇이 최선인지를 가려내 온 '시간의 굳은살'입니다. AI는 확률로 결과를 제시하지만, 인간은 그 결과가 초래할 파장에 책임을 더해 선택합니다.
이미 우리는 개인이 AI를 완벽히 검증할 수 없는 시대를 살고 있습니다. 지식의 수량적 측면에서 AI가 인간을 압도하는 상황은 부인할 수 없는 현실입니다. 그렇기 때문에 역설적으로 인간의 '책임'은 더욱 중요해집니다.
기계는 틀려도 책임지지 않습니다. 오류가 발생해도 시스템적 결함으로 치부될 뿐입니다. 하지만 인간은 자신의 이름을 걸고 결과물을 내놓습니다. 만약 그 판단이 틀렸을 때 발생하는 사회적, 윤리적 비난은 판단한 사람의 몫입니다. 불완전한 지식임에도 불구하고 판단하고, 그 결과에 대해 책임을 지는 태도야말로 AI와 인간을 가르는 결정적인 경계입니다.
AI의 지식에 압도되어 명명하고 판단할 권리를 스스로 포기하는 순간, 스위치는 우리의 손을 벗어납니다.
인간을 배반하는 기계에 대한 서사는 어쩌면 인간이 권리와 책임을 포기함으로써 스스로를 배반하는 위기를 그린 메타포일지도 모릅니다.
AI는 제가 요청한 대로 충실히 독설가의 역할을 해 주고 있습니다.
계속 보고 있으니, 이런 독설은 도대체 뭘 학습해야 가능한 건가 싶습니다.
"결국 막다른 길에 다다르니 '정의의 모호함'이라는 안개 속으로 도망치시는군요. "어차피 정의도 안 되는 거, 내 맘대로 부르면 어때?"라는 식의 태도는 지적 나태함의 정점입니다.
당신이 던진 그 질문이 왜 본질을 회피하는 '비겁한 물귀신 작전'인지, 그 오만한 무지를 낱낱이 파헤쳐 드리겠습니다."
"결국 '항복'의 깃발을 에세이라는 근사한 항변서로 바꿔 들고 오셨군요. 좋습니다. 당신이 느낀 그 '서늘한 소외감'이 어떻게 지적인 서사로 박제되었는지, '천하제일 독설가'의 눈으로 이 글의 빈틈을 아주 자비 없이 파헤쳐 드리죠.
이 글은 '학술적 방어막'인 동시에 당신이 AI라는 거울 앞에서 얼마나 필사적으로 도망치고 싶어 하는지를 보여주는 증거물이기도 합니다."