brunch

GUAVA의 왕초보를 위한
AI 기초개념 - 5

AI 학습과 프롬프트 엔지니어링

by 구아바

여러분, 오늘은 프롬프트 엔지니어링에 대해 이야기해보려고 합니다.


사실 구아바는 이제 프롬프트 엔지니어링이 점점 의미가 없어지는 시대라고 생각해요.

하지만 이는 프롬프트를 안 써도 된다는 게 아니라, AI에게 직접 물어볼 수 있고 인터넷에 좋은 예시들이 많이 있다는 의미예요.


그래서 오늘은 조금 다른 관점에서 접근해보려고 합니다:

LLM을 만들 때 학습시키는 방법

LLM 사용할 때의 프롬프트 엔지니어링

추론 모델과 기존 모델의 활용법


아주 기초적인 개념이지만, 꼭 알아야 할 내용이니 끝까지 함께해 주세요!


PART 1: LLM 학습의 이해


AI를 학습시키는 과정은 마치 아기를 키우는 것과 비슷합니다.

처음에는 기본적인 것부터 시작해서, 점차 전문적인 지식을 쌓아가죠.


1. 사전 학습 (Pre-training)

마치 아기가 세상의 기본적인 것들을 배우는 단계예요

엄청난 양의 데이터로 기초 지식을 쌓습니다

LLaMA, GPT 같은 기본 모델이 이렇게 만들어져요

수천 개의 컴퓨터로 몇 달씩 공부시켜야 해요


2. 미세조정 (Fine-tuning)

이제 특정 분야를 집중적으로 가르치는 거예요

의사나 변호사처럼 전문 분야를 배우는 단계죠

전체 모델을 다시 한번 가르치는 방식이에요

며칠에서 몇 주 정도 걸립니다


3. 효율적인 학습 방법 (PEFT)

꼭 필요한 부분만 골라서 가르치는 똑똑한 방법이에요

적은 자원으로도 빠르게 학습할 수 있어요

LoRA나 Adapter 같은 기술을 사용해요

하루나 이틀이면 충분할 수도 있죠

breaking-the-data-barrier-how-zero-shot-one-shot-and-few-shot-learning-are-transforming-machine-learning.png



PART 2: 프롬프트 엔지니어링의 세계


A. 기본 프롬프트 기법


1. Zero-Shot 프롬프팅

예시 없이 바로 질문하는 방식이에요

장점: 즉시 사용할 수 있어요

단점: 복잡한 작업에서는 정확도가 떨어져요


2. Few-Shot 프롬프팅

1-5개 정도의 예시를 함께 제시해요

장점: 더 정확한 결과를 얻을 수 있어요

보통 2-8개의 예시가 가장 효과적이에요



B. 고급 프롬프트 기법


1. Chain of Thought (CoT)

AI가 단계별로 문제를 해결하도록 유도해요

"Let's think step by step"처럼 차근차근 접근해요

복잡한 추론이 필요할 때 특히 유용해요


2. Tree of Thoughts (ToT)

여러 가지 사고 경로를 동시에 탐색해요

트리 구조로 문제를 해결해나가요

다양한 가능성을 모두 고려할 수 있어요


3. 기타 고급 기법

메타 프롬프팅: AI가 자동으로 프롬프트를 만들어요

최소-최대 프롬프팅: 문제를 작은 단위로 나눠서 해결해요

ACTIVE 프롬프팅: CoT를 더 발전시킨 버전이에요

unseen.png




PART 3: 프롬프트 기법과 추론모델의 관계


"왜 둘 다 필요한가?"


A. 각각의 역할


1. 추론 모델의 역할

기본적인 추론 메커니즘을 제공해요

복잡한 패턴을 학습할 수 있어요

인과관계를 파악하는 능력이 있어요


2. 프롬프트 기법의 역할

추론 과정을 명확하게 보여줘요

모델의 능력을 최대한 끌어내요

문제를 단계별로 해결하도록 도와줘요


B. 시너지 효과


1. 통합 활용의 장점

더 정확한 결과를 얻을 수 있어요

복잡한 문제도 해결할 수 있어요

결과의 신뢰성이 높아져요


2. 적용 사례

수학 문제 해결할 때

여러 단계의 논리 추론이 필요할 때

중요한 의사결정을 지원할 때



PART 4: 실제 적용과 선택 가이드


A. LLM 학습 선택 기준


1. 리소스에 따라

대규모: 사전 학습을 선택해요

중규모: 미세조정이 적당해요

소규모: PEFT가 효율적이에요


2. 목적에 따라

기초 지식: 사전 학습이 필요해요

특화 기능: 미세조정이 좋아요

빠른 적용: PEFT가 유용해요



B. 프롬프트 기법 선택 기준


1. 작업 복잡도

단순한 작업: Zero-Shot으로 충분해요

복잡한 작업: CoT나 ToT가 필요해요


2. 정확도 요구사항

높은 정확도: Few-Shot이나 ToT를 써요

빠른 응답: Zero-Shot이 좋아요

661db92f7f407ef4ee436231_claudeailogo.jpg




PART 5: 실제 상용 AI는 어떻게 만들어질까?


A. ChatGPT의 학습 과정


1. 기본 모델 학습 (GPT-4)

방대한 인터넷 데이터로 사전 학습해요

수만 대의 GPU를 사용한대요

수개월간의 학습이 필요해요

예상 비용이 수천억 원을 넘어요


2. 미세조정 단계

인간의 피드백을 반영하는 RLHF를 사용해요

수많은 대화 데이터로 조정해요

유해한 콘텐츠를 필터링하도록 학습해요

AI 윤리 규칙도 적용해요



B. Claude의 특별한 점


1. Constitutional AI

윤리적 가이드라인이 내장되어 있어요

안전성을 최우선으로 설계했어요

편향성을 최소화하도록 학습했어요


2. 학습 방식

고품질 데이터만 선별해서 사용해요

여러 단계의 검증 시스템을 적용했어요

지속적으로 성능을 모니터링해요



C. 상용 AI의 특징


1. 차별화 포인트

ChatGPT: 누구나 쉽게 쓸 수 있어요

Claude: 윤리성과 정확성이 특징이에요

Bard, Gemini: 구글 서비스와 잘 연동돼요


2. 지속적 개선

사용자들의 피드백을 반영해요

새로운 데이터로 계속 학습해요

성능 문제도 꾸준히 수정해요

화면 캡처 2025-02-02 174533.png



PART 6: 최신 AI의 혁신 - DeepSeek 사례 연구


A. 기본 모델 (DeepSeek-V3)

"기초부터 탄탄하게"


1. 사전 학습 특징

2조 개의 토큰으로 학습했어요

AdamW 옵티마이저를 사용했어요

다단계 학습률 조정을 적용했어요

2000 스텝의 웜업 단계를 거쳤어요


2. 차별화 포인트

GPT-4와 비슷한 성능을 보여요

개발 비용은 1/14 수준이에요

효율적인 학습 구조를 가지고 있어요


B. 추론 강화 모델 (DeepSeek-R1)

"더 똑똑하게 생각하기"


1. 5단계 학습 과정

콜드 스타트: 기초 데이터 학습

순수 강화학습: 추론력 향상

거부 샘플링: 우수 사례 선별

통합 학습: 데이터 결합

최종 강화학습: 다양한 시나리오 적용


2. GRPO 방식의 혁신

인간 피드백 없이도 스스로 학습해요

RLHF보다 1/10 비용으로 가능해요

2.8백만 GPU-시간으로 완료했어요



C. 최적화 기술

"더 빠르고 효율적으로"


1. 메모리 최적화

양자화 기술을 적용했어요

KV 캐시를 활용했어요

중복 계산을 줄였어요


2. 구조적 혁신

MoE 구조를 도입했어요

효율성이 크게 높아졌어요

자원 사용을 최적화했어요


미국이 아직 의구심을 가지고 있지만, DeepSeek은 AI 개발의 새로운 가능성을 보여줬습니다. 이제는 조 단위의 달러가 없어도 AI를 개발할 수 있는 시대가 올지도 모르겠네요!


이렇게 AI 기술은 계속 발전하고 있습니다. 처음에는 어려워 보일 수 있지만, 차근차근 이해하다 보면 정말 흥미로운 분야라는 걸 알 수 있을 겁니다.


다음에는 또 다른 재미있는 AI 이야기로 찾아오겠습니다.

긴 글 끝까지 읽어주셔서 감사합니다!


To Be Continue......


- Total HR / 사파 감성 HR & 나만의 AI를 찾고 있는 구아바 -



P.S.

원래 운동선수에 비유를 했다가,

딱 맞지 않는 것 같아서

비유를 뺐습니다.


비유를 억지로 맞추기보다는,

정말 본질을 이해하는 게 중요한 것 같아서요 ^^


그래도 비유 만든 것은 공유합니다.


AI 학습과 프롬프트 엔지니어링

= 운동선수 육성



# AI 학습은 운동선수를 키우는 과정


1. 사전 학습(Pre-training) = 기초체력 훈련

- 달리기, 근력, 유연성 등 모든 기본기

- 엄청난 시설과 트레이너, 시간이 필요

- 힘들고 비용도 많이 들지만

이게 있어야 진정한 선수가 됨

- GPT, LLaMA 같은 모델들이

이런 기초 훈련을 받은 선수


2. 미세조정(Fine-tuning) = 종목 특화 훈련

- 축구, 농구, 수영 등 특정 종목에 집중

- 기초체력을 바탕으로 전문 기술을 발전

- 기본기가 있으니 새로운 기술을 더 빨리 배움


3. PEFT는 특정 기술 훈련

- 축구의 프리킥이나 농구의 3점 슛처럼 한 가지 기술만 집중

- 짧은 시간에 특정 능력을 크게 향상할 수 있음



# 프롬프트 엔지니어링 = 코치의 작전지시


1. Zero-Shot은 즉석 지시

- "저기로 달려!" 하고 바로 지시하기

- 간단한 동작은 되지만 복잡한 작전은 실수할 수 있음


2. Few-Shot은 시범을 보이며 지도

- "이렇게 차면 돼, 한번 해봐" 하고 예시를 보여주기

- 실제 모습을 보니 더 잘 따라 할 수 있음


3. Chain of Thought는 단계별 작전

- "수비수를 피해서, 패스하고, 골 지점으로..."

- 복잡한 전술도 하나씩 실행할 수 있음



# DeepSeek은 혁신적인 트레이닝 시스템

- 비싼 장비 없이도 효율적으로 선수를 키움

- 선수가 스스로 학습하고 발전하는 방식

- 기존 훈련법보다 빠르고 저렴

keyword
이전 07화GUAVA의 왕초보를 위한 AI 기초개념-4[부록]