brunch

You can make anything
by writing

C.S.Lewis

by 이유민 Aug 24. 2021

14. Autoencoders & GM

Autoencoder

 - 입력을 그대로 모사하는 것을 목적으로 하는 신경망

- g(f(x))=x

- 여기서, f(x) : 인코더 => hidden representation으로 학습

- g(f(x)) => 디코더 !

- 손실함수를 정의해 최소화하는 방식

: 연속형 : 최소제곱법

: 이산형 : 크로스엔트로피

- 목적 :입력데이터를 잘 '표현'하려는 목적

- 차원축소, 특징학습에 이용


Trae-off

- 모델의 복잡도 늘리면 입력 완벽표현, but 의미있는 hiden representation 어려움 => 오버피팅

- 모델의 복잡도 감소시키면 입력 완벽하게 재현 X but 의미있는 hidden representation 찾게됨

-> 오버피팅 방지해야!


Linear auto encoder

- activation function 선형함수일경우 PCA랑 동일

 -

Regularization

- 적절한 정규화

 -표현의 희소성, 강건성 등을 표현가능

 - 손실함수 : 복원오차 + 정규화항

 - sparse autoencoder (L1norm)

- denoising autoencoder (노이즈 인풋)


Anomaly detection

: 오토인코더를 잘 학습한다면, reconstruction에 의해 이질성판단가능.

- threshold가 n보다 큰경우 아노말리로 간주 ! 다른데이터랑 다른 성질

- 일종의 다양체 학습 가능


Deep/Stacked Auto encoder

Greedy layer wise pretraining

: 학습 문제 해결 위해 weight의 초기값 구축하는 것



ㅎ-



매거진의 이전글 13. RNN
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari