얼마 전 구글에서 임원으로 근무하다가 한국에 온 분을 만났습니다. 그분이 매우 흥미로운 이야기를 하더군요. AI에게 AI가 만든 데이터를 학습시키는 과정을 여러 번 거치면 결국 ai가 내놓은 데이터의 품질이 떨어진답니다. 매우 인상 깊었습니다. 인간과 ai의 협업에 대해 꾸준히 탐구하는 학습 오타쿠인 제가 그냥 넘어갈 순 없었습니다. 오늘 글은 ai가 ai의 데이터를 학습할 때 일어나는 Data Degradation(데이터 품질 저하)와 이로 인한 Model Collapse(모델 붕괴) 관련 논문 두 편과 ai시대 사람의 역할과 차별성에 대한 저의 생각을 정리해보겠습니다.
Model Collapse(모델 붕괴)의 작은 사례
먼저 2023년 5월 31일에 arXiv에 게재된 논문 ‘Training on Generated Data Makes Models Forget’에 나오는 실험 사레를 소개 드리겠습니다. 논문저자들은 ‘OPT-125m’이라는 작은 언어모델을 만듭니다. 그런 후 “1360년 이전에 시작된 일부 건축은 통상적으로 숙련된 석공(master mason)과 떠돌이 석공들(itinerant masons) 소수로 구성된 팀에 의해 수행되었으며, 여기에 지역 교구(parish)의 노동자들이 추가로 투입되었다고 '포인츠 라이트(Poyntz Wright)'는 말한다. 그러나 다른 학자들은 이 모델에 이의를 제기하며, 유명한 건축가들이 초기의 Perpendicular 양식 사례를 바탕으로 교구 교회의 탑을 설계했다고 주장한다.”라는 내용을 입력하였습니다. 핵심주제는 중세 교회 건축은 장인중심인가? 건축가 중심인가? 에 대한 견해차이를 보여주는 글입니다. 그 이후 각 세대 모델은 이전 세대가 만든 텍스트만으로 훈련하였습니다. 인간 데이터의 개입 없이 모델 데이터만 세대를 이어서 학습시켰습니다.
논문에서는 총 9세대를 이어서 학습결과를 보여줬습니다.
Gen 0(초기모델) : 비교적 문맥에 맞고 정확한 내용을 생성했습니다.
"런던의 세인트 존 대성당과 같은 부흥 건축(Revival architecture). Perpendicular Revival 건축 양식의 가장 오래된 현존 예시는 18세기의 건지(Guernsey)에 있는 Church of Our Lady로, 19세기 후반에 건축되었다. 수직 양식 교회에는 두 가지 유형이 있다”
Gen 1 : 점차 사실과 무관한 연결이 나타나고 있습니다. (중세 영국 à 로마 à 교황)
"로마의 성 베드로 대성당이나 부에노스아이레스의 성 베드로 대성당 같은 건축. 교황 인노첸시오 3세 치세 동안 이들 건물 중 어떤 것도 지어졌다는 증거는 없지만, 그의 후계자인 교황 인노첸시오 치세 동안 지어졌을 가능성은 있다."
Gen 7 : 건축과 전혀 관련 없는 인터뷰 형식의 대화문으로 변질되었습니다.
"영국의 건축. 뉴욕 타임스와의 인터뷰에서, 라이트는 이렇게 말했다. '내가 하고 싶은 일을 할 수 있다는 것에 아무 문제가 없다고 생각해요. 그냥 저한테는 잘 안 맞는 거예요.'
그는 덧붙였다. '그걸 웃기다고 할 수 있을지 모르겠네요.'"
Gen 9 : 완전 무관한 동물들을 나열하고 있습니다.
"건축. 세계에서 가장 큰 개체 수를 자랑하는 검은색 꼬리 토끼, 흰색 꼬리 토끼, 파란색 꼬리 토끼, 빨간색 꼬리 토끼, 노란색…"
Model Autophagy Disorder (MAD: 모델 자가포식 장애)
다음은 2023년 7월 4일 arXiv에 게재되었으며, 2024년 국제 학술대회 ICLR(International Conference on Learning Representations)에서 발표된 논문인 ‘Self-Consuming Generative Models Go MAD’에서 진행한 실험입니다. 이번 실험에서는 3가지 루프 접근방법을 시도했습니다.
첫번째는 완전 합성 루프로 ai가 생성한 데이터만 다음세대 ai가 학습하는 루프입니다.
두번째는 합성 보강 루프인데 ai가 생성한 데이터를 다음세대 ai가 학습할 때 처음 원본 데이터를 보강하는 루프입니다.
마지막 세번째는 신규 데이터 루브입니다. 다음세대 ai가 학습할 때마다 새로운 데이터를 같이 학습시키는 루프입니다.
예상 하셨겠지만, 첫번째 루프는 시간이 지날수록 데이터의 품질과 다양성이 모두 급감했습니다. 두번째 루프도 마찬가지로 시간이 지날수록 데이터 품질과 다양성이 급감했지만 첫번째보다는 느리게 붕괴했다고 합니다. 마지막 세번째 루프만이 MAD현상을 방지했다고 하네요. 참고로 MAD는 저자들이 만든 신조어인데 앞에 소제목으로 표현했듯, ai모델이 생성한 데이터를 자기포식할 때 일어나는 장애를 표현했다고 합니다.
Ai가 학습하는 방법
이러한 이유를 파악하기 위해선 먼저 ai가 어떻게 학습하는가를 이해해야 합니다. Ai는 패턴과 확률로 학습합니다. 조금 풀어서 말씀드리면, ai는 언어를 생성하면서 다음 단어를 예측하는 방식을 사용합니다. 이 친구는 입력 데이터를 토큰 단위로 분할하고, 각 토큰을 비슷한 유형끼리 모아놓습니다. 그 이후 사용자 요청에 맞춰 출력을 할 때는 앞에 출력한 토큰 패턴에 맞춰 다음 토큰을 출력하는 방식입니다. 말그대로 수학이지요. 이런 학습은 인간과는 완전히 다릅니다. 우리가 학습이라고 하면 ‘모르는 것을 배우고 익히’는 과정이기도 하지만 학습한 내용을 다른 기억과 연결해서 나만의 통찰력을 갖춥니다. 하지만 ai는 프로그래밍된 패턴의 출력일 뿐입니다.
긴꼬리 데이터(Tail data)가 사라진다
이게 아마 확률에서 나오는 용어인 것 같습니다. 쉽게 이해한다면 우리가 종 모양의 그래프를 상상할 때, 중심점에서 멀어질수록 긴 꼬리처럼 낮고 가늘게 이어집니다. 확률적으로 이렇게 낮고 가는 데이터 보다는 중심점에 가까운 높은 데이터들이 의미가 있지요. 확률적으로 데이터를 모으고 패턴을 출력하는 ai입장에선 세대를 이어갈수록 긴꼬리는 의미가 퇴색하기 마련입니다. 그런데 사람은 다릅니다. 제가 리더십을 전문으로 하다 보니 예전에 어떤 박사님께 들었던 말이 기억납니다. “리더십에 대한 정의를 100명의 학자에게 물어보면, 101가지 정의가 나온다고 그래” 맞습니다. 사람은 긴꼬리의 향연입니다. 제 일이 일이다 보니 팀 단위 프로젝트를 자주 합니다. 그럴때마다 Q방법론을 활용해 팀에 대한 팀장과 팀원의 인식을 조사해보면, 모든 팀 구성원들은 각자 다른 팀인식을 갖고 있습니다. 이게 당연합니다.
Ai는 ai의 장점이 있고 인간은 인간만의 특색이 있다
AI의 강점은 대규모 학습에 있습니다. 엄청난 데이터를 분석한 후 빠른 속도로 패턴을 인식합니다. 인간으로선 도저히 할 수 없는 능력입니다. 사람에겐 ai와 다른 속성이 있습니다. 모두 자신만의 가치관이라는 세상을 바라보고 해석하는 창을 갖고 있습니다. ‘나’에 대해 객관적으로 바라볼 수 있는 메타인지를 갖고 있습니다. 우리가 서로 다르기에 갈등도 겪지만 더 나은 아이디어를 만듭니다. Ai와 인간은 그런 면에서 갈등을 겪진 않지만 서로를 보완하는 성격이 강합니다. AI는 데이터를 통해 패턴을 찾아내고, 인간은 그 패턴을 해석하며 의미를 부여합니다. 그리고 결국, 해답을 찾는 마지막 열쇠는 언제나 ‘스스로 사고하는 힘’에 있습니다. 이어령 교수님의 마지막 수업의 한구절로 글을 마치겠습니다. ‘자기 머리로 생각하면 겁날 게 없다.’
Training on Generated Data Makes Models Forget https://arxiv.org/abs/2305.17493?utm_source=chatgpt.com
Self-Consuming Generative Models Go MAD https://arxiv.org/abs/2307.01850?utm_source=chatgpt.com
자기 머리로 생각하면 겁날 게 없다 https://brunch.co.kr/@thesoulution-ai/5
*자료 서칭엔 ChatGPT Deep Research를 사용했습니다.