이틀 전 아마존에서 책을 받고 책 언박싱 영상을 한번 찍어보았습니다. 영상만 올리려다가 책 영상을 기획하고 찍은 것이 아니라 즉흥적으로 찍어 본 것이라 자세한 설명이 필요해서 아래에 추가로 책 설명을 달았습니다. 처음 찍어 본것이라 오타(제본을 재본으로 표기ㅎ)도 있고 말 주변도 없지만 참조하기 바랍니다. '슈퍼 스터디 가이드: 트랜스포머와 대형 언어모델'(Super Study Guide: Transformers & Large Language Models)에 대한 소개 영상입니다.
이 책은 Transformers & LLMs에 대해 배울 수 있는 그림책이라 생각됩니다.(도식화를 위해 그림이 많아서 그림책이라 부르는 것이긴 한데 실제 그림책은 아닙니다.) 아울러, 초급에서 중급자가 볼 만한 책은 아니고, 중급자에서 고급자가 볼 만한 책입니다. 본인이 Transformers & LLMs에 대해 공부를 좀 하신 분들이라면 이 책을 읽기 시작할 때 잘 쓴 책이라는 것을 느끼실거라 생각됩니다. 입문자분들도 도전해보시는 것 나쁘지는 않습니다. 약간은 논문과도 같은 이책은 유사한 LLM Survey 논문들(구글 검색 참조)이 있기에 그것을 먼저 참조하셔도 좋을 듯합니다. 그럼에도 불구하고 개념화와 도식화를 주 무기로 Transformers & LLMs에 대해 잘 쓰여진 책이라 아마존에서도 좋은 평점을 유지하고 있습니다.(영상에는 그냥 예전 아마존에서 한번 본 기억대로 5스타가 21개라 했는데 실제 다시 보니 16개 정도 됩니다.)
https://leanpub.com/transformers-large-language-models/
아마존 책 소개에서도 나오듯 이 책은 다음과 같이 다섯개의 장으로 구성되어 있습니다. 임베딩 등 내용도 좋으나 트랜스포머나 대형 언어모델(LLM)이 핵심인 책입니다.
1장 파운데이션(Foundation): 학습 및 평가를 위한 신경망과 중요한 딥러닝 개념에 대한 입문
2장 임베딩(Embedding): 토큰화 알고리즘, 워드 임베딩(word2vec) 및 문장 임베딩(RNN, LSTM, GRU)
3장 트랜스포머(Transformer): 셀프 어텐션 메커니즘, 인코더-디코더 아키텍처에 대한 자세한 소개 및 BERT, GPT, T5와 같은 변형모델, 그리고 계산 속도를 높이는 방법에 대한 팁과 요령을 제공
4장 대형 언어모델(LLM): 프롬프트 엔지니어링, (파라미터 효율적인) 파인튜닝 및 선호 튜닝과 같은 Transformer 기반 모델을 튜닝하는 주요 기술
5장 애플리케이션(Application): 감성 추출, 기계 번역, 검색 증강 생성(RAG)를 포함한 일반적인 문제 해결
초급에서 중급자가 볼 만한 유사한 책인 '한눈에 보이는 생성형 AI와 자연어 처리 그림책'이 국내에도 있어 입문자가 이와 같은 그림 책을 보고 싶으면 하단 부록에 나온 책을 참조하시기 바랍니다. 'Super Study Guide: Transformers & LLMs'과는 컨셉은 비슷하지만 완전히 유사한 책은 아닌 개념화와 도식화가 뛰어난 책이라 생각됩니다.(저자자 및 출판사와 아는 사이는 아닙니다.) 이 책의 장점은 생성형 AI와 자연어 처리의 개요를 빠르게 볼 수 있는 진짜 그림 책입니다. 저자가 모든 내용을 알아야지 이렇게 그림으로 쉽게 설명할 수 있는데 이책은 생성AI와 자연어처리 입문자가 그림을 보면서 공부하기에 제격인 책입니다. 영어 원서 한권과 국내서적 한권에 대한 소개가 도움이 되셨으면 좋겠습니다.
[부록] 한눈에 보이는 생성형 AI와 자연어 처리 그림책
https://www.aladin.co.kr/shop/wproduct.aspx?ItemId=336715705