AI가 진짜 똑똑해지는 방법

by 멘토사피엔스

AI의 '똑똑함'을 다시 정의하다


우리는 흔히 "똑똑한 AI"라고 하면, 마치 사람처럼 척척 대답하고 어려운 문제도 해결하는 인공지능을 떠올립니다. 하지만 AI가 똑똑하다는 건 정확히 어떤 의미일까요? 단순히 정보를 많이 외우고 있는 걸까요?

AI가 학습하는 방식은 마치 학생이 시험공부를 하는 것과 비슷합니다. 수많은 교과서(데이터)를 읽고 내용을 머릿속에 넣습니다. 여기서 '단순 암기'는 교과서의 내용을 그대로 외워 답하는 것입니다. 예를 들어, "대한민국의 수도는?"이라는 질문에 "서울"이라고 대답하는 식이죠.


하지만 진짜 똑똑한 학생은 암기만 하지 않습니다. 배운 내용을 바탕으로 '추론'을 합니다. 예를 들어, "유럽에서 가장 작은 나라는?"이라는 질문을 받지 않았더라도, 유럽의 여러 나라 정보를 조합해서 "바티칸"이라고 유추해 냅니다. 새로운 상황이나 문제를 해결하기 위해 스스로 생각하는 능력이 바로 추론입니다.


AI 모델의 진정한 실력도 여기에 있습니다. 방대한 데이터를 단순히 외우는 것을 넘어, 그 안의 규칙과 패턴을 파악해 처음 보는 문제도 해결할 수 있는 능력. 바로 이 '추론 능력'이 AI 모델의 진짜 똑똑함을 판가름하는 기준입니다. 그리고 이 추론 능력은 모델의 크기보다 훨씬 더 본질적인 것에 달려 있습니다.


모델 학습의 본질: '지식'과 '추론'을 함께 담다


학습을 마친 AI 모델은 마치 잘 정리된 도서관과 같습니다. 이 도서관 안에는 두 가지가 들어 있습니다.

첫 번째는 ‘사실적 지식’입니다. 수많은 책(데이터)에 담긴 내용 그대로입니다. "파리의 에펠탑은 몇 미터일까?"와 같은 질문에 대한 답이 이 지식에 해당합니다. 모델은 이 지식을 빠르게 찾아 정확하게 대답할 수 있습니다.


두 번째는 ‘추론 패턴’입니다. 이것은 책의 내용을 단순히 외운 것이 아니라, 책들 사이의 관계와 논리, 그리고 규칙을 스스로 이해한 것입니다. 예를 들어, 소설, 과학책, 역사책 등 다양한 장르의 책들을 읽고 '글쓰기'나 '논리 전개' 같은 패턴을 파악하는 것과 같습니다. 이 패턴 덕분에 모델은 새로운 이야기(새로운 질문)를 만들어내거나, 복잡한 문제를 해결할 수 있습니다.


여기서 중요한 점은 AI 모델이 단순히 데이터를 담는 용도뿐만 아니라, 추론 패턴을 표현할 수 있는 추가적인 공간이 필요하다는 것입니다. 학습 데이터에 담긴 지식과 그 지식을 연결하는 추론 규칙을 모두 저장하려면, 데이터를 '압축'하는 데 필요한 용량을 넘어선 '여유' 공간이 있어야 합니다.


이 맥락에서 우리가 흔히 오해하는 개념이 바로 “여유 용량(capacity)”입니다. 이 말 때문에 마치 학습이 끝난 모델에 빈 공간이 남아있어 추론에 사용되는 것처럼 들릴 수 있습니다. 하지만 사실은 그렇지 않습니다.

쉽게 비유하자면, 모델은 학습을 시작하기 전부터 이미 '책장'을 가지고 있습니다. 이 책장의 크기가 바로 모델의 '파라미터' 수, 즉 용량입니다.


책장이 너무 작다면: 책(데이터)을 겨우 우겨넣기 바쁩니다. 내용을 외울 수는 있지만, 책들 사이의 관계를 파악하고 정리할 여유가 없습니다.

책장이 충분히 크다면: 책 내용을 정리하면서, 책들 간의 공통점이나 규칙(추론 패턴)을 함께 기록할 수 있습니다.


즉, '여유 용량'은 학습이 끝난 뒤에 필요한 공간이 아니라, 학습을 시작하기 전에 미리 확보해야 하는 충분한 책장 크기를 의미합니다. 모델이 단순 암기(지식)와 함께 복잡한 추론 패턴까지 동시에 담으려면, 데이터 크기보다 조금 더 여유 있는 파라미터 수가 처음부터 필요하다는 뜻이죠.


결론적으로, 학습을 마친 똑똑한 모델은 지식과 추론 패턴을 모두 품고 있으며, 이는 학습을 시작하기 전부터 모델의 크기가 적절하게 설계되어야만 가능합니다.


추론 능력을 극대화하는 '스케일링 법칙'의 비밀


그렇다면 모델의 크기는 얼마나 커야 할까요? 무조건 크다고 좋은 걸까요? AI 연구자들은 이 질문에 답하기 위해 수많은 실험을 했습니다. 그 결과, AI 모델의 성능을 결정하는 세 가지 요소가 서로 균형을 이룰 때 가장 효율적이라는 사실을 발견했습니다. 바로 데이터의 양(토큰 수), 모델의 크기(파라미터 수), 그리고 학습에 필요한 컴퓨팅 자원(FLOPs)입니다. 이 관계를 '스케일링 법칙(Scaling Law)'이라고 부릅니다.


특히 딥마인드(DeepMind) 연구팀은 이 균형에 대한 흥미로운 공식을 내놓았습니다. "모델 파라미터 수 ≈ 학습 토큰 수 / 20"이라는 경험적 비율입니다. 이 공식은 "모델이 똑똑해지려면, 데이터의 양에 맞춰 적절한 크기의 모델이 필요하다"는 것을 수학적으로 보여줍니다.


이해를 돕기 위해 예를 들어볼까요? 만약 100TB(테라바이트)의 방대한 텍스트 데이터를 학습시킨다고 가정해봅시다. 1TB는 대략 4~5천억 개의 토큰(단어 조각)에 해당합니다. 따라서 100TB는 약 40~50조 개의 토큰이 됩니다.


여기에 딥마인드의 공식을 적용해볼게요.

필요한 모델 파라미터 수 ≈ (40~50조 토큰) / 20 ≈ 약 2~2.5조 파라미터


놀랍지 않나요? 100TB의 데이터를 효율적으로 학습시키려면, 약 2조 개의 파라미터를 가진 거대한 모델이 필요하다는 결론이 나옵니다.


실제 사례를 보면 이 법칙이 얼마나 정확한지 알 수 있습니다. 과거 GPT-3는 약 3천억 개의 파라미터를 사용했지만, 데이터가 부족했다는 평가를 받았습니다. 반면, 최근 출시된 GPT-4나 클로드 3(Claude 3) 같은 최신 모델들은 수십~수백 조 개의 토큰으로 학습되며, 그에 맞춰 수천억에서 수조 개의 파라미터를 사용하고 있는 것으로 추정됩니다.


결론적으로, 무작정 큰 모델을 만드는 것이 아니라, 데이터의 양에 맞춰 모델의 크기를 결정하는 것이 추론 능력을 극대화하고 학습 효율을 높이는 가장 똑똑한 방법입니다.


추론 데이터가 부족할 때 AI에게 생기는 일


"데이터의 양에 맞춰 모델을 키우면 무조건 똑똑해진다"고 생각할 수 있지만, 그렇지 않습니다. 여기서 중요한 것은 데이터의 '질'입니다.


만약 AI에게 퀴즈 문제집만 100만 권 학습시킨다면 어떻게 될까요? 이 AI는 퀴즈 문제는 정말 잘 풀 겁니다. 하지만 소설을 쓰거나 어려운 과학 문제를 해결하는 능력은 부족할 수 있습니다. 이유는 간단합니다. 퀴즈 문제집에는 그런 복잡한 '추론 패턴'이 담겨 있지 않기 때문입니다.


이처럼 학습 데이터에 추론을 위한 복잡한 맥락이나 논리적 연결이 부족할 때, AI에게는 두 가지 문제가 생깁니다.


'환각(Hallucination)' 현상 AI가 사실이 아닌 내용을 마치 진짜인 것처럼 말하는 현상입니다. 예를 들어, "세종대왕이 발명한 스마트폰은?"이라고 물으면, "세종대왕은 조선시대에 아이폰을 발명했습니다"와 같이 그럴싸하지만 터무니없는 답을 내놓는 거죠. 이는 데이터에 논리적 연결 고리가 부족해 AI가 스스로 맥락을 만들어내다가 벌어지는 일입니다. 진짜 똑똑한 학생이라면 "세종대왕은 스마트폰이 없던 시대 사람입니다"라고 대답했을 겁니다.


편향성(Bias) 문제 학습 데이터에 특정 편견이 포함되어 있다면, AI 역시 그 편견을 그대로 학습하게 됩니다. "의사는 남자, 간호사는 여자"와 같은 편향된 데이터를 학습한 AI는 성별에 따른 고정관념을 강화할 수 있습니다. 추론 능력이 떨어지는 모델은 이런 편향을 걸러내지 못하고 그대로 반복하기 쉽습니다.

결국, 무조건 양이 많은 데이터보다 다양한 상황과 복잡한 논리가 포함된 질 좋은 데이터가 AI의 똑똑함을 결정합니다. 양질의 추론 데이터가 부족하면 모델의 크기가 아무리 커도 비논리적인 답변을 하거나 편향된 결론에 도달할 수밖에 없습니다.


추론 패턴을 가르치는 새로운 학습 방법


AI는 단순한 데이터 외에도 '어떻게 생각해야 하는지'를 배우는 특별한 학습 방식을 사용합니다. 다음은 대표적인 방법들입니다.


단계별 사고 과정(Chain of Thought, CoT) 학습 AI에게 답뿐만 아니라, 답에 도달하기까지의 사고 과정을 단계별로 보여주는 방식입니다. 예를 들어, 수학 문제의 경우 최종 답만 제시하는 것이 아니라 "1단계: 문제 파악 → 2단계: 필요한 공식 적용 → 3단계: 계산"과 같이 풀이 과정을 함께 학습시킵니다. 이를 통해 AI는 논리적 추론 능력을 획기적으로 향상시킬 수 있습니다.


자체 생성 추론(Self-Generated Reasoning) 학습 모델 스스로 복잡한 문제를 풀기 위한 가상의 사고 과정을 생성하고 평가하도록 훈련합니다. 마치 사람이 어려운 문제를 만나면 "이건 이렇게 접근하고, 저건 저렇게 해결해야겠다"고 속으로 생각하는 것처럼, AI도 문제 해결을 위한 여러 단계를 스스로 만들어내고 가장 적합한 경로를 선택하도록 학습합니다.


이러한 학습 방법들은 단순히 '무엇'을 아는지(지식)를 넘어, '어떻게' 생각해야 하는지(추론)를 가르칩니다. 이는 양질의 '추론 데이터'를 활용하는 구체적인 예시가 됩니다.


추론 능력 향상을 위한 '데이터' 전략


그렇다면 AI의 추론 능력을 끌어올리기 위해서는 어떤 데이터가 필요할까요? 마치 똑똑한 학생이 되려면 교과서뿐만 아니라, 다양한 심화 문제집, 토론 자료, 논문 등을 두루 섭렵해야 하는 것과 같습니다.


AI에게도 단순한 텍스트 데이터 외에 특별한 '추론 데이터셋'이 중요하게 떠오르고 있습니다. 이는 단순한 사실 나열이 아닌, 복잡한 문제 해결 과정, 논리적 사고의 흐름, 단계별 추론 과정 등이 담긴 데이터입니다. 예를 들어, 수학 문제의 풀이 과정, 법률 문서의 논리 전개, 컴퓨터 코드의 작동 방식 같은 것들이 여기에 포함됩니다. 이런 데이터를 통해 AI는 단순히 '결과'만 외우는 것이 아니라, '과정'을 이해하는 방법을 배웁니다.

요약하자면, AI를 진정으로 똑똑하게 만들려면 데이터의 양적 확충뿐만 아니라, 추론 능력을 직접적으로 길러줄 수 있는 '질 좋은' 데이터에 집중해야 합니다. 이것이 무작정 모델을 키우는 것보다 훨씬 효율적이고 효과적인 방법입니다.


AI 발전의 열쇠는 '모델'이 아닌 '재료'에 있다


우리는 흔히 AI가 똑똑해지려면 무조건 모델의 크기를 키워야 한다고 생각합니다. 마치 뇌가 클수록 천재라는 생각처럼 말이죠. 하지만 지금까지 살펴봤듯이, 이 생각은 절반만 맞는 말입니다.


AI의 진정한 똑똑함은 모델의 크기가 아니라, 그 모델이 무엇을 먹고 자랐느냐, 즉 학습 데이터의 양과 질에 달려 있습니다.


데이터가 부족한 큰 모델은 마치 암기만 잘하는 '똑똑해 보이는' 학생과 같습니다. 지식은 많지만 논리적 연결 고리가 약해 엉뚱한 답을 내놓기 쉽죠. 반면 데이터의 질이 좋은 작은 모델은, 비록 지식의 양은 적을지라도 사고력이 뛰어나 새로운 문제를 스스로 해결할 수 있는 잠재력을 가집니다.


결국 AI의 미래는 무작정 큰 모델을 만드는 '규모의 경쟁'이 아니라, 모델의 크기와 데이터의 양·질이 균형을 이루는 '효율의 경쟁'으로 나아가고 있습니다. 추론 능력 향상을 위한 질 좋은 데이터셋을 만들고, RAG와 같은 기술로 학습을 보완하는 것이 AI 발전을 이끄는 새로운 방향입니다.


이러한 관점은 곧 "작은 모델도 충분히 똑똑해질 수 있다"는 희망적인 메시지를 던져줍니다. AI가 모두의 삶에 더 가까이 다가오고, 더 다양한 분야에 적용될 수 있는 토대가 될 것입니다.

keyword
작가의 이전글'기억'을 품고 진화하는 LLM 컨텍스트 기술의 비밀