brunch

You can make anything
by writing

C.S.Lewis

by 안영회 습작 Jan 10. 2024

배경 지식이 부족해도 AI 논문을 빠르게 읽는 법

보고 듣고 배워 지금 써먹기

ChatGPT 이후에 딱히 쓰지 않았던 생성형 AI를 조금 실용적으로 써 볼 대상이 생겼습니다. 최근 구글 Bard를 써 보고 받은 인상이 제 어깨를 두드렸습니다.[1]


DeepL과 구글 Bard 도움으로 AI 논문 대충 훑기

페벗 님의 논문 소개와 요약을 보고 직접 읽어 보고 싶다는 생각이 난 데에서 출발합니다. AI에 대한 배경 지식도 없으니 막상 마음먹었지만 실행을 미루게 됩니다. 그래서, 익숙한 DeepL 도움을 받아야겠다 싶었습니다. 그런데 영어보다는 AI에 대한 배경 지식 부족이 중요한데 DeepL이 그 문제를 해결해 줄 수는 없습니다. 그래서 구글 Gemini로 한번 시도해 보고 구글 Bard에게 어찌 도움을 받을지 생각해 냈습니다.


1차 시도는 동동주와 막걸리 차이를 Bard와 ChatGPT에 묻기와 거의 같은 식으로 했습니다. 차이가 있다면 일단 초록(Abstract)을 DeepL 한 결과를 Bard에게 '보기'로 주는 정도만 추가했습니다.

간편한 정리를 봤더니 글자가 점점 읽기 싫어서 일단 표로 만들어 달라고 요청했습니다.


내 지식수준에서 주어진 내용으로 차려 보기

<오픈AI의 노선 투쟁과 MS의 승리>를 쓰면서 손때를 묻힌 보람을 느낍니다. AI 전문가들의 교양 일부가 표의 첫 줄에 나열된 듯합니다.

그런 문제들에 대한 해결책으로 논문이 제시된 듯합니다. 그렇게 추정하는 배경은 논문 제목이 바로 '

Retrieval-Augmented Generation for Large Language Models...'이기 때문입니다. 이렇게 단서를 잡고 보니 기대하지 않았던 행운을 만난 듯합니다.


그래서 RAG가 무언데?

대개 배경 지식이 없는 초보자의 문제는 뭘 물어야 할지 모른다는 점입니다. 그래서, 처음부터 내용을 읽어야 하죠. 그걸 피하려고 (큰 손해 볼 것 없는) 소소한 모험을 시도했는데, 기대 이상의 경험입니다. 그 이유는 그냥 하는데 질문이 만들어졌기 때문입니다. 표로 요약된 내용으로 뭘 물어야 할지 알게 된 것이죠. 요약으로만 보긴 불편해서 논문에서 RAG를 설명하는 내용을 찾아보았습니다.[2]

To address the limitations of purely parameterized models, lan- guage models can adopt a semi-parameterized approach by integrating a non-parameterized corpus database with pa- rameterized models. This approach is known as Retrieval- Augmented Generation (RAG).

여기서 제가 배운 바는 'RAG가 뭔데?'라는 질문을 30분 가까운 시도에서 찾은 것입니다. 대강 답을 얻은 다음에 다시 표로 돌아갔습니다. 그랬더니 논문이 주장하는 효과가 보였습니다. '그렇구나' 하고 넘겼습니다. 특별히 질문이 생기지 않았습니다. 그다음 주요 구성 요소는 알고 싶었습니다.


RAG의 주요 구성 요소

아주 다행하게 Bard에 요약 준하는 그림이 떡 하니 등장했습니다. 저자들에게 고맙다는 생각마저 들었습니다. 대충 뭔가 알듯하게 두뇌를 자극했지만, '알음기분'에 들떠 잘못된 편향을 사실로 오인하지 않으려면 논문을 더 봐야 한다는 생각을 했습니다.

그래서 다음과 같은 질문들을 하면서 행동 전에 의사 결정을 하기로 했습니다.

더 할 것인가?

그만할 것인가?

더 한다면 무슨 이유로 할 것인가?

시각화된 저자들의 결과물 즉, 이미지나 표를 쓱 훑으면서 무언가 느껴지면 그걸 기록으로 남기고 아니면 그만두자고 결심했습니다.


트리 형태로 보는 RAG 연구 현황

시작하자 논문에서 가장 먼저 등장하는 그림이 눈에 띄었습니다. 솔직히 외형까지 마음에 들었습니다. 앞선 구성 요소 구분과 무슨 차이인지 스스로 질문했다가 '계통적 구분'은 다른 듯하다고 대강 결론을 내립니다. 그 이상 당장 알 필요는 없으니까요.

오히려 가운데 Fine-tuning이 뒤에 표에 RAG의 대안으로 등장한다는 사실이 눈에 띄었습니다. 굳이 RAG 접근을 취하지 않아도 Fine-tuning 만으로도 문제를 해결할 수도 있는 듯하다고 짐작합니다.


RAG의 세 가지 패러다임

그리고 스크롤을 하는데 아래 그림이 Bard가 만들어준 표에서 봤던 내용이란 사실을 깨닫습니다. 패러다임이란 항목으로 '나이브 RAG, 고급 RAG, 모듈형 RAG'으로 요약해 준 내용이죠.


다른 모델 최적화 기법과의 관계

마지막은 어딘지 모르게 마음에 든 그림을 살펴봤습니다. 아마 '사분면'이라서 그런 듯합니다. 그리고 놀랍게도 제게 남아 있는 궁금함이 모두 해소되었습니다.

실행과 글쓰기를 병렬해도 1시간도 안 되는 시간에 논문을 읽은 듯이 배울 수 있다니 놀랍습니다. 페벗 님, 논문 저자님, DeepL 개발팀 그리고 구글 Bard 팀 그리고 브런치 개발팀 모두 고맙습니다.


주석

[1] 저도 모르게 만화 '조삼모사'의 장면을 떠올린 표현입니다.


[2] 그리고 바로 DeepL로 해 보았는데 번역 결과가 딱히 도움이 되지는 않았습니다.


지난 보고 듣고 배워 지금 써먹기 연재

1. 자율 주행 영상에 내게 알려준 생각 활용하기

2. 책 읽는 습관을 지켜주는 습관 문지기의 활용

3. 일의 완료 기준을 구체적으로 적으면 얻게 되는 이득

4. 미뤄진 일을 다시 바라 보기

5. 동동주와 막걸리 차이를 Bard와 ChatGPT에 묻기

6. 드립커피 마시다가 급입문한 커피 푸어링

7. 저장소 관리의 노하우: 폴더 구분

작가의 이전글 개념의 구성 요소: 원칙, 생각, 믿음

작품 선택

키워드 선택 0 / 3 0

댓글여부

afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari