2017년 1월 25일 수요일

고유값 분해 (eigenvalue docomposition)


1. 고유값 분해 (eigenvalue docomposition) 란?

 정방행렬(n * n squre matrix) A 에 대해 Ax = λx  (상수 λ)가  성립하는 0 이 아닌 벡터 x가 존재할때 상수 λ 를 행렬 A의 고유값 (eigenvalue),  x 벡터를 고유벡터(eigen vector )라고 함.


λ = 람다 = 고유값(eigenvalue) = 특성값 = 잠정근(latent value )

행렬 A의 모든 고유값의 집합을 스펙트럼(spectrum)이라 칭함 


 - 실질적으로 eigent vector 를 찾는것이 주목적임.

 - 기하하적인 의미로, 행렬의 곱은 결과가 원래벡터와 방향이 같고, 고유값 상수만큼에 비례하여 변한다는 의미가 있다. (즉 방향은 변하지 않는다. 크기반 변한다. )




- 각 고유값 위의 그림에서의 2개의 고유벡터와 고유값 늘린거와 같이  팽창되는 것을 볼수 있다. 즉 고유값 람다만큼 방향벡터는 방향이 바뀜이 없이 크기만 커지는 것을 관찰할 수 있다. 

궁금증? : 행렬과 좌표공간의 대응방법?? 선형변환을 알아볼것 
  >> 아직은 선형대수학에 대한 기초지식이 부족하다. 

2. 고유값 분해 추출 방법 





위의 A-λI  특성행렬(characteristic matrix) 라고 하며, D(λ) 는 행렬 A의 특성행렬식(characteristic determinant) 라고 합니다.  그리고 A-λI = 0  특성방정식(characteristic equation) 혹은 고유방정식(eigenvalue equation) 이라고 합니다.

n sqaure matrix 는 고유값(eigent value )을 적어도 1개이상 n 개의 다른 고유값을 가진다. 




 - 가우스 소거방식을 이용하여 고유 벡터를 구한다. 

[ 고유공간 (eigenspace) ]

 만일 w와 x가 행렬 A의 같은 고유값 λ에 대한 고유벡터인 경우, w + x (단, x≠-w)와 kx (단, k는 임의의 0 아닌 스칼라)도 고유벡터가 된다.  따라서 같은 고유값 λ에 대응하는 고유벡터들은 0 벡터와 함께 하나의 벡터공간을 이루며, 이것을 고유값 λ에 대응하는 고유공간(eigenspace)라고 부른다.

댓글 없음:

댓글 쓰기