– 사라지는 방향조차 말해주는 선형대수의 본질
“람다(λ)가 0이면 벡터가 사라지잖아요.
그런데 왜 그것도 고유벡터라고 하나요?”
머신러닝이나 데이터 분석을 공부하다 보면 종종 이런 질문을 만나게 됩니다.
많은 사람들은 고유벡터(eigenvector)를
*“방향이 바뀌지 않는 특별한 벡터”*라고 배웁니다.
하지만 λ = 0일 때도 고유벡터가 존재합니다.
그리고 그건 단순히 예외가 아니라, 선형 변환의 본질을 보여주는 힌트입니다.
행렬 A에 대해 다음을 만족하는 0이 아닌 벡터 v가 고유벡터입니다.
A * v = λ * v
즉, 방향은 유지되지만 크기만 λ배로 바뀝니다.
λ = 2 → 두 배로 늘어남
λ = 1 → 그대로 유지됨
λ = 0 → 완전히 사라짐
“λ = 0이면 왜 고유벡터인가요?”라는 질문에 대한 핵심은 다음과 같습니다:
λ = 0인 고유벡터는
이 행렬이 완전히 무시하는 방향을 보여줍니다.
정사영(projection)은 벡터를 특정 평면 위로 눌러 “그림자처럼” 투영하는 변환입니다.
이 변환을 나타내는 행렬은 고유값이 항상 0 또는 1입니다.
고유값 λ 의미
λ = 1 : 투영되는 평면 위의 방향 (살아남는 축)
λ = 0 : 평면에 수직인 방향 (사라지는 축)
예를 들어 x축에 정사영하면 y축 방향 성분은 사라집니다.
그 y축 방향 벡터가 바로 λ = 0인 고유벡터입니다.
PCA는 고유값이 작은 방향을 제거하고 큰 방향을 보존하는 기법입니다.
동역학 시스템에서 λ = 0은 정적인 상태를 의미합니다.
머신러닝, 양자역학, SVD 등 다양한 분야에서 고유값/고유벡터 구조는 핵심입니다.
고유벡터는 단지 **살아남는 방향(λ=1)**뿐 아니라,
**사라지는 방향(λ=0)**까지도 설명해주는 중요한 수학적 도구입니다.
고유벡터는
“이 변환이 어떤 방향을 보존하고, 어떤 방향을 무시하는가”
를 수학적으로 표현해 줍니다.
λ = 1은 보존되는 축,
λ = 0은 소멸되는 축입니다.
이 둘을 함께 이해해야 진짜 선형 변환의 구조를 파악할 수 있습니다.
#고유벡터 #선형대수 #정사영 #PCA #데이터사이언스 #수학적사고 #AI기초