[강의노트] KDT_day10_260117

딥러닝 기초

by 아르떼

딥러닝 실행을 위해 필요한 세 가지

데이터 컴퓨터 그리고 프로그램


딥러닝의 핵심

미지의 일을 예측하는 원리

회귀와 분류 문제

데이터가 입력되고 패턴이 분석되는 과정 -> 학습(training)


Perceptron = 로지스틱 회귀


선형회귀 식의 오차는 제곱식으로 표현되므로 이차함수와 유사하게 나타내어진다.

그러므로 이차함수의 최솟값을 찾는 것이 Error 함수의 의미.


경사하강법

이차함수에서 기울기, 즉 경사를 계속 줄여나가는 방법으로 오차의 최솟값을 찾아나가는 방법

경사를 찾아나갈때 값을 얼마나 이동시킬지를 나타내는 값이 바로 학습률

학습률 값이 너무 작으면 시간이 오래 걸린다.

학습률 값이 너무 크면 발산한다.


기울기 -> 가중치

y 절편 -> 편향

평균 제옵 오차 -> 손실 함수(loss function)


찾아가는 데 쓰는 함수 -> 손실 함수 (예: MSE)

찾아가는 방법 -> 옵티마이저(optimizer) (예: 경사하강법)


로지스틱 회귀에서는 손실 함수로 교차 엔트로피 오차(cross entropy error) 함수를 사용.

오차를 찾는 데에 교차 엔트로피 함수를 쓴다는 의미.

이진 분류 문제일 경우, binary_crossentopy

다중 분류 문제일 경우, categorical_crossentropy

작가의 이전글[강의노트] KDT_day9_260116