brunch

멈출 수 없는 AI의 두뇌 탐험

OpenAI-o1/3와 DeepSeek-R1의 ‘생각’ 해부하기

by 미미니

인공지능(AI)이 우리를 놀라게 하는 데는 이제 익숙해졌을지도 모릅니다. 하지만 최근 등장한 OpenAI-o1/3와 DeepSeek-R1 같은 추론 강화(Reasoning-enhanced) 거대 언어 모델(LLM)은 단순히 똑똑한 수준을 넘어, 거의 생각하는 기계처럼 느껴질 정도입니다. 이 녀석들은 복잡한 수학 문제를 풀고, 의료 질문에 답하며, 심지어 인간처럼 논리적으로 사고하는 것처럼 보입니다. 그런데, 잠깐! 이 모델들이 어떻게 그런 놀라운 답을 내놓는 걸까요? 그들의 ‘두뇌’ 속에서는 무슨 일이 벌어지고 있는 걸까요?

오늘 소개할 신선한 논문 “A Close Look at How LLMs Think Across Domains​”은 바로 이 미스터리를 파헤칩니다. 이 연구는 LLM의 내부 추론 과정을 지식(knowledge)과 추론(reasoning)이라는 두 가지 렌즈로 세밀히 분석하며, AI의 ‘생각’을 한 꺼풀 벗겨냅니다. 자, 안전벨트를 매고, AI의 두뇌 속으로 다이빙해볼까요?


LLM의 ‘생각’을 해부하는 새로운 도구


이 논문의 핵심은 LLM의 추론 과정을 평가하기 위한 혁신적인 프레임워크입니다. 비유하자면, 이 프레임워크는 AI의 사고 과정을 CT 스캔처럼 촬영해서 “어디가 문제야?“를 찾아내는 도구라고 할 수 있죠. 이 프레임워크는 두 가지 핵심 지표를 통해 LLM의 ‘생각 품질’을 측정합니다:

1. 지식 정확성 (Knowledge Index, KI): AI가 사용하는 정보가 얼마나 정확한지 점수로 매깁니다. 예를 들어, AI가 “달은 치즈로 만들어졌다” 같은 터무니없는 지식을 바탕으로 추론한다면, 아무리 논리가 좋아도 결과는 엉망이겠죠?

2. 추론 품질 (Information Gain, InfoGain): AI가 얼마나 효율적이고 유용한 방식으로 정보를 처리하는지를 평가합니다. 불필요한 정보로 머리를 복잡하게 굴리거나, 엉뚱한 길로 새는 추론은 낮은 점수를 받습니다.

연구팀은 이 프레임워크를 사용해 R1-distilled와 기본 Qwen 모델을 의료와 수학 도메인에서 테스트했습니다. 이 모델들은 지도 미세 조정(SFT)강화 학습(RL) 같은 최신 훈련 기법으로 단련된 녀석들이죠. 그리고 그 결과, AI의 사고 과정에 대한 세 가지 놀라운 통찰이 드러났습니다. 준비되셨나요?


3가지 놀라운 발견: AI의 생각 속 비밀


1. “일반 지식의 챔피언도 의료 전문가는 못 된다!”

R1-distilled 모델은 일반적인 추론 능력에서 탁월했지만, 의료 도메인으로 넘어가자 고전을 면치 못했습니다. SFT나 RL 같은 훈련을 거쳤음에도 불구하고, 의료 질문에 제대로 답하려면 도메인 특화 훈련이 필요하다는 사실이 드러났습니다.

아무리 체스 그랜드마스터라도, 갑자기 심장 수술을 하라고 하면 당황할 거예요. AI도 마찬가지! 의료 분야의 복잡한 지식과 맥락은 일반 추론 능력만으로는 감당하기 어렵다는 거죠.

이 발견은 AI를 특정 분야에 적용할 때 전문화된 데이터와 훈련이 필수적임을 보여줍니다. 의료 AI를 꿈꾼다면, 일반 지식만으로는 부족하다는 사실!


2. SFT: 정답은 맞췄지만, 생각은 꼬였다?

지도 미세 조정(SFT)은 모델이 정답을 맞출 확률을 크게 높였습니다. 의료와 수학 문제 모두에서 SFT로 훈련된 모델은 정확도가 쑥쑥! 하지만 여기서 충격적인 반전: SFT는 추론 품질(InfoGain)을 떨어뜨렸습니다. 심지어 평균 38.9%나 감소했어요!

쉽게 말해, SFT는 AI에게 “정답”을 외우는 요령을 가르쳤지만, 그 과정에서 AI의 ‘창의적 사고’나 효율적인 추론 능력은 오히려 희생된 셈입니다. 의료 도메인에서는 정확한 지식이 필수라 SFT가 여전히 중요하지만, 정답만으로는 부족하다는 점이 강조됩니다.


3. RL: AI의 ‘잡생각’을 정리해주는 마법사

강화 학습(RL)은 의료 추론에서 빛을 발했습니다! RL은 모델이 불필요한 정보나 잘못된 지식을 걷어내고, 핵심에 집중하도록 도와줬습니다. 마치 AI의 머릿속 정원에 잡초를 뽑아내는 정원사처럼요.

RL을 적용한 모델은 추론 정확성과 지식 정확성를 동시에 끌어올렸으며, 특히 의료 분야에서 큰 효과를 봤습니다. 이는 RL이 정확성이 생명인 분야에서 AI의 사고 과정을 더 신뢰할 수 있게 만드는 데 큰 기여를 한다는 뜻입니다.


이 연구가 왜 중요할까?


이 논문은 단순히 “AI가 똑똑해졌다”를 넘어, AI가 어떻게 생각하는지”, 그리고 그 과정을 어떻게 개선할지를 고민하게 만듭니다. 우리가 AI에게 원하는 건 단순히 정답을 뱉는 기계가 아니라, 투명하고 신뢰할 수 있는 사고 과정을 가진 파트너입니다. 특히 의료처럼 실수가 큰 후과를 낳는 분야에서는 “어떻게” 정답에 도달했는지가 정답 자체만큼 중요하죠.

이 프레임워크는 LLM의 추론 과정을 평가하는 새로운 표준을 제시하며, 앞으로 AI 훈련에서 SFT와 RL의 균형, 그리고 도메인 특이성을 더 깊게 고민해야 한다는 메시지를 던져줍니다.


앞으로의 전망: 더 똑똑하고 신뢰할 수 있는 AI를 향해


이 연구는 LLM의 미래를 한층 더 밝게 만듭니다. AI가 단순히 문제를 푸는 데 그치지 않고, 인간처럼 논리적이고 효율적으로 사고하며, 그 과정을 투명하게 보여주는 방향으로 나아가고 있음을 보여주기 때문이죠.

앞으로의 LLM은 의료, 교육, 과학 연구 등 다양한 분야에서 더 정밀하고 신뢰할 수 있는 AI를 만드는 데 기여할 것입니다. 이 논문은 그 첫걸음이자, AI의 ‘두뇌’를 더 깊이 이해하는 중요한 이정표입니다. 이 논문이 AI의 미래를 어떻게 바꿀지, 함께 이야기 나눠봐요!

keyword
매거진의 이전글AI Agent vs. Agentic AI