딥러닝 기초
딥러닝 실행을 위해 필요한 세 가지
데이터 컴퓨터 그리고 프로그램
딥러닝의 핵심
미지의 일을 예측하는 원리
회귀와 분류 문제
데이터가 입력되고 패턴이 분석되는 과정 -> 학습(training)
Perceptron = 로지스틱 회귀
선형회귀 식의 오차는 제곱식으로 표현되므로 이차함수와 유사하게 나타내어진다.
그러므로 이차함수의 최솟값을 찾는 것이 Error 함수의 의미.
경사하강법
이차함수에서 기울기, 즉 경사를 계속 줄여나가는 방법으로 오차의 최솟값을 찾아나가는 방법
경사를 찾아나갈때 값을 얼마나 이동시킬지를 나타내는 값이 바로 학습률
학습률 값이 너무 작으면 시간이 오래 걸린다.
학습률 값이 너무 크면 발산한다.
기울기 -> 가중치
y 절편 -> 편향
평균 제옵 오차 -> 손실 함수(loss function)
찾아가는 데 쓰는 함수 -> 손실 함수 (예: MSE)
찾아가는 방법 -> 옵티마이저(optimizer) (예: 경사하강법)
로지스틱 회귀에서는 손실 함수로 교차 엔트로피 오차(cross entropy error) 함수를 사용.
오차를 찾는 데에 교차 엔트로피 함수를 쓴다는 의미.
이진 분류 문제일 경우, binary_crossentopy
다중 분류 문제일 경우, categorical_crossentropy