� 고유벡터는 왜 중요한가

by 노마드 인사이트

– 사라지는 방향조차 말해주는 선형대수의 본질

“람다(λ)가 0이면 벡터가 사라지잖아요.
그런데 왜 그것도 고유벡터라고 하나요?”


머신러닝이나 데이터 분석을 공부하다 보면 종종 이런 질문을 만나게 됩니다.

많은 사람들은 고유벡터(eigenvector)를

*“방향이 바뀌지 않는 특별한 벡터”*라고 배웁니다.


하지만 λ = 0일 때도 고유벡터가 존재합니다.

그리고 그건 단순히 예외가 아니라, 선형 변환의 본질을 보여주는 힌트입니다.


고유벡터란?

행렬 A에 대해 다음을 만족하는 0이 아닌 벡터 v가 고유벡터입니다.

A * v = λ * v

즉, 방향은 유지되지만 크기만 λ배로 바뀝니다.

λ = 2 → 두 배로 늘어남

λ = 1 → 그대로 유지됨

λ = 0 → 완전히 사라짐


“λ = 0이면 왜 고유벡터인가요?”라는 질문에 대한 핵심은 다음과 같습니다:

λ = 0인 고유벡터는
이 행렬이 완전히 무시하는 방향을 보여줍니다.


정사영과 고유값

정사영(projection)은 벡터를 특정 평면 위로 눌러 “그림자처럼” 투영하는 변환입니다.

이 변환을 나타내는 행렬은 고유값이 항상 0 또는 1입니다.



고유값 λ 의미

λ = 1 : 투영되는 평면 위의 방향 (살아남는 축)

λ = 0 : 평면에 수직인 방향 (사라지는 축)


예를 들어 x축에 정사영하면 y축 방향 성분은 사라집니다.

그 y축 방향 벡터가 바로 λ = 0인 고유벡터입니다.


왜 중요한가?

PCA는 고유값이 작은 방향을 제거하고 큰 방향을 보존하는 기법입니다.

동역학 시스템에서 λ = 0은 정적인 상태를 의미합니다.

머신러닝, 양자역학, SVD 등 다양한 분야에서 고유값/고유벡터 구조는 핵심입니다.


고유벡터는 단지 **살아남는 방향(λ=1)**뿐 아니라,

**사라지는 방향(λ=0)**까지도 설명해주는 중요한 수학적 도구입니다.


요약

고유벡터는

“이 변환이 어떤 방향을 보존하고, 어떤 방향을 무시하는가”
를 수학적으로 표현해 줍니다.

λ = 1은 보존되는 축,

λ = 0은 소멸되는 축입니다.

이 둘을 함께 이해해야 진짜 선형 변환의 구조를 파악할 수 있습니다.

image.png

#고유벡터 #선형대수 #정사영 #PCA #데이터사이언스 #수학적사고 #AI기초



keyword
작가의 이전글Docker는 상대방 환경에 ‘맞춰주는’ 도구가 아니다