어느 날 우리 동네에 신기한 '마법 빵집'이 생겼다고 상상해 보자. 이곳은 손님이 "단팥빵 주세요"라고 말만 하면 순식간에 따끈따끈한 빵을 공짜로 만들어준다. 사람들은 환호했고, 매일 아침 그 빵집 앞은 문전성시를 이뤘다.
그런데 얼마 후, 충격적인 사실이 밝혀진다. 알고 보니 그 빵집 주인은 새벽마다 옆 동네 방앗간 창고에 몰래 들어가 밀가루와 팥을 훔쳐오고 있었던 것이다.
방앗간 주인이 이 사실을 알고 빵집에 찾아와 소리친다. "여보시오, 남의 재료로 생색은 혼자 다 내고! 당장 밀가루 값 내놓으시오!"
지금, AI 시장에서 벌어지고 있는 일이 이 상황과 정확히 똑같다.
지난 몇 년간 우리는 AI라는 신기한 요리사가 만들어내는 음식에 푹 빠져 있었다. 주문만 하면 뚝딱 글을 써주고, 그림을 그려주니 마법 같았다. 그런데 알고 보니 이 요리사가 쓴 재료들이 전부 남의 밭에서 몰래 가져온 것들이라면 어떨까?
지금까지 AI 기업들은 인터넷이라는 거대한 밭에서 사람들의 글과 그림을 '공짜'로 가져다 썼다. 하지만 이제 그 파티는 끝났다. 농부들(창작자)이 화가 났고, 가게 문을 걸어 잠그기 시작했기 때문이다. 바야흐로 "재료값을 내지 않으면 요리를 못 하는 시대"가 온 것이다.
"AI가 만든 걸로 다시 AI를 공부시키면 되지 않나?"라고 묻는 이들도 있다. 하지만 여기에는 치명적인 문제가 있다.
‘복사기의 원리’를 생각해 보자. 원본 종이를 복사하고, 그 복사본을 또 복사하고, 그걸 또 복사하면 어떻게 될까? 나중에는 글자가 뭉개져서 알아볼 수 없게 된다.
AI도 똑같다. AI가 만든 데이터를 다시 AI가 학습하면, 지능이 뚝 떨어지고 엉뚱한 소리를 하는 ‘모델 붕괴(Model Collapse)’ 현상이 일어난다. 네이처(Nature)지에도 실린 아주 중요한 연구 결과다. 결국, AI가 똑똑해지려면 반드시 '사람이 만든 진짜 데이터(Original)'가 계속 공급되어야 한다.
이제 기업들도 깨달았다. "아, 좋은 재료를 쓰려면 돈을 줘야 하는구나."
구글과 레딧의 거래: 구글은 최근 커뮤니티 사이트인 '레딧'에 있는 사람들의 대화 내용을 AI에게 공부시키기 위해, 1년에 약 800억 원이라는 거금을 내기로 계약했다.
어도비의 약속: 포토샵으로 유명한 어도비는 "우리는 저작권료를 다 지불한 깨끗한 이미지만 썼다. 안심하고 써라"라고 광고한다. 심지어 법적 문제가 생기면 대신 책임지겠다는 '보증'까지 섰다.
이것은 엄청난 변화다. 예전에는 우리 글과 사진이 인터넷에 떠도는 '공공재' 취급을 받았다면, 이제는 돈을 받고 파는 '귀한 자산'이 된 셈이다.
재료값만 내면 끝일까? 아니다. 칼을 쥐여준 요리사가 손님에게 칼을 휘두르면 안 된다. 그래서 'AI의 인성 교육'이 중요해졌다.
예전에는 일일이 사람이 "나쁜 말 하지 마"라고 가르쳤다면, 이제는 AI에게 아예 '헌법(Constitution)' 같은 규칙을 심어준다. "폭력을 조장하지 마라", "차별하지 마라" 같은 원칙을 입력해 두고, AI가 스스로 자기 행동을 검열하게 만드는 기술(Constitutional AI)이다. 마치 아이에게 예절 교육을 시키듯 말이다.
그렇다면 앞으로 구체적으로 어떤 것들이 '돈'이 될까? 미래 시장은 '희소한 경험'과 '안전한 신뢰'를 사고파는 곳이 될 것이다.
① 나만의 '히든 메뉴' (특화 데이터 판매) 인터넷에 널린 정보(물)는 더 이상 비싸지 않다. 하지만 의사의 진료 기록, 변호사의 판례 분석, 장인의 도자기 굽는 노하우 같은 '인터넷에 없는 전문가 데이터'는 부르는 게 값이 될 것이다. 심지어 여러분의 목소리나 말투도 AI 배우의 재료로 비싸게 팔릴 수 있다.
② AI를 위한 '유기농 인증 마크' (윤리 인증 사업) 우리가 비싸도 유기농 채소를 사 먹듯, 기업들은 '윤리적으로 깨끗한 AI'라는 인증을 받기 위해 돈을 쓸 것이다. "이 AI는 차별 발언을 하지 않는다"라고 보증해 주는 'AI 윤리 감사관'이 인기 직종이 되고, AI가 사고를 쳤을 때 배상해 주는 'AI 보험 상품'도 등장할 것이다.
도덕성은 이제 착한 마음씨가 아니라, 가장 비싼 프리미엄 기능이 되는 셈이다.
세상이 이렇게 변할 때, 우리는 무엇을 해야 할까?
AI가 아무리 발달해도, 결국 그 시작점인 '원본'을 만드는 건 우리 인간이다. AI는 우리가 만든 데이터를 먹고 자라며, 우리가 정한 도덕적 기준 안에서 움직여야 한다.
우리는 이제 단순한 이용자가 아니다. AI에게 맑은 물(데이터)을 공급하는 수원지이자, AI가 선을 넘지 않도록 감시하는 감독관이다.
무임승차의 시대는 끝났습니다. 여러분의 생각, 여러분의 글 한 줄이 정당한 대우를 받는 새로운 시대가 오고 있다. 이제 당당하게 여러분의 가치를 주장하라.
[참고 자료 및 출처]
복사기 이론 (모델 붕괴): Shumailov, I. et al. "AI models collapse when trained on recursively generated data". Nature (2024). [Nature 원문 보기]
저작권 소송: The New York Times Co. v. Microsoft Corp. et al. (2023). "The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work". [NYT 기사 보기]
구글-레딧 800억 계약: "Reddit's $60 Million Deal With Google Will Feed Generative AI". CNET (2024). [기사 원문 보기]
어도비 법적 면책 (Indemnification): Adobe (2024). "Firefly Legal FAQs for Enterprise". [어도비 공식 문서 보기]
인성 교육 (Constitutional AI): Anthropic (2022). "Constitutional AI: Harmlessness from AI Feedback". arXiv. [논문 원문 보기]