딥러닝에서는 어떤 의미일까?
“선형대수에서 행렬식이 0이면 차원이 줄어든다.
그런데 이게 딥러닝에서는 무슨 의미일까?”
수학과 인공지능의 개념을 연결해주는 이 질문은,
모델 설계와 표현력에 대한 중요한 통찰을 제공합니다.
� 선형대수에서 ‘행렬식이 0’이라는 것은?
어떤 행렬 A에 대해 다음이 성립한다면:
det(A) = 0
이건 수학적으로 다음을 의미합니다:
A는 어떤 방향의 벡터를 납작하게 눌러버린다
즉, 입력 공간의 일부 방향이 완전히 소멸됨
결과적으로 출력 공간의 차원이 축소됨
이 때 방정식 A * x = 0은 무수히 많은 해를 가지며
A는 역행렬이 존재하지 않는 비가역 행렬이 됩니다
요약하자면, 어떤 정보를 복구할 수 없게 된 것입니다.
� 딥러닝에서는 차원 축소가 흔하다
딥러닝에서는 차원 축소가 ‘비정상적인 문제’가 아니라
오히려 의도적으로 수행되는 전략입니다.
예 1. Word Embedding에서의 차원 축소
원래 단어는 수천~수만 차원의 원-핫 벡터로 표현됩니다 (예: “apple” → 10,000차원)
Word2Vec, GloVe 같은 모델은 이를 300차원 이하의 밀집 벡터로 줄입니다
이건 수학적으로 보면,
→ 고차원의 입력 벡터를 압축된 의미 공간에 투영(projection) 하는 것
→ 즉, 불필요한 차원을 줄이는 선형 변환
예 2. 신경망 내부의 Dense Layer 차원 축소
768차원 → 512 → 128로 차원이 줄어드는 구조
모델은 이 과정을 통해 중복된 정보를 제거하고 더 적은 차원으로 더 의미 있는 표현을 하게 됩니다
이 또한, 행렬 변환을 통한 **차원 축소(압축)**입니다.
✨ 마무리 인사이트
언어는 본질적으로 수많은 의미 중 핵심만 골라 표현하는 과정입니다.
딥러닝 신경망은 그 핵심 정보를 담기 위해 차원을 줄이고,
덜 중요한 방향을 눌러 없애는 방식으로 학습합니다.
선형대수에서의 “행렬식이 0 → 차원 축소” 개념은,
딥러닝에서의 정보 요약, 표현 효율화 과정과 놀랍도록 닮아 있습니다.
� 이 글이 유익하셨다면,
좋아요 �와 공유 �로 함께 나눠주세요.
#딥러닝기초 #선형대수 #차원축소 #신경망이해
#머신러닝