2017년 1월 25일 수요일

고유값 분해 (eigenvalue docomposition)


1. 고유값 분해 (eigenvalue docomposition) 란?

 정방행렬(n * n squre matrix) A 에 대해 Ax = λx  (상수 λ)가  성립하는 0 이 아닌 벡터 x가 존재할때 상수 λ 를 행렬 A의 고유값 (eigenvalue),  x 벡터를 고유벡터(eigen vector )라고 함.


λ = 람다 = 고유값(eigenvalue) = 특성값 = 잠정근(latent value )

행렬 A의 모든 고유값의 집합을 스펙트럼(spectrum)이라 칭함 


 - 실질적으로 eigent vector 를 찾는것이 주목적임.

 - 기하하적인 의미로, 행렬의 곱은 결과가 원래벡터와 방향이 같고, 고유값 상수만큼에 비례하여 변한다는 의미가 있다. (즉 방향은 변하지 않는다. 크기반 변한다. )




- 각 고유값 위의 그림에서의 2개의 고유벡터와 고유값 늘린거와 같이  팽창되는 것을 볼수 있다. 즉 고유값 람다만큼 방향벡터는 방향이 바뀜이 없이 크기만 커지는 것을 관찰할 수 있다. 

궁금증? : 행렬과 좌표공간의 대응방법?? 선형변환을 알아볼것 
  >> 아직은 선형대수학에 대한 기초지식이 부족하다. 

2. 고유값 분해 추출 방법 





위의 A-λI  특성행렬(characteristic matrix) 라고 하며, D(λ) 는 행렬 A의 특성행렬식(characteristic determinant) 라고 합니다.  그리고 A-λI = 0  특성방정식(characteristic equation) 혹은 고유방정식(eigenvalue equation) 이라고 합니다.

n sqaure matrix 는 고유값(eigent value )을 적어도 1개이상 n 개의 다른 고유값을 가진다. 




 - 가우스 소거방식을 이용하여 고유 벡터를 구한다. 

[ 고유공간 (eigenspace) ]

 만일 w와 x가 행렬 A의 같은 고유값 λ에 대한 고유벡터인 경우, w + x (단, x≠-w)와 kx (단, k는 임의의 0 아닌 스칼라)도 고유벡터가 된다.  따라서 같은 고유값 λ에 대응하는 고유벡터들은 0 벡터와 함께 하나의 벡터공간을 이루며, 이것을 고유값 λ에 대응하는 고유공간(eigenspace)라고 부른다.

2017년 1월 23일 월요일

Mean Shift (평균이동)


1. Mean Shift (평균이동) 개념

이미지 출발점으로부터 로컬이미지 영역내에서 가장 밀도가 높은 지역의 평균(mean)을 따라 이동(shift)하는 방법 // 샘플 데이터 피크 혹은 자신주변의 밀집된 데이터의 집합으로 이동하는 알고리즘

>> 이미지 트래킹에 많이 쓰인다.
>> 이외에도 segmentation, clustering , smoothing
>> 하지만 서로 중첩되는 이미지의 경우 다른 이미지 영역으로 트래킹될수도 있다.

* 영상의 밀도를 파악하기 위해 히스토그램을 이용한다.

2. 커널함수

* 히스토그램의 확률밀도 추정이 힘듦
- bin 경계의 불연속성
- bin 설정의 모호함과 크기에 따른 분포변화에 민감함.

* 히스토그램의 추정의 단점을 개선하기위한 continous 한 확률밀도를 구하기 위한 커널함수를 이용


- 각 편차(x -xi)들의 합을 전체 sample dataset가 비교
- 커널 밀도추정(KDE)에서 변수 X에 대한 확률 밀도함수 : 기존의 불연속한 히스토그램을 스무딩시킨다.
- h는 대역폭을 조절하는 파라미터

* 커널함수의 특징
- 원점을 중심으로 symetric(대칭)되면서 적분값이 1 인 non-negatice 함수
- 관측된 데이터 각각마다 해당 샘플데이터 값을 중심으로하는 커널함수를 생성
- 이 커널함수를 모두 더한후 전체 데이터 갯수로 나누면 컬널함수의 완성
- 여기에 커널함수를 bandwidth(대여폭: 주파수 대역의 행 ) 조절하는 h 파라미터가 있다. 이는 높게 잡을수록 밀도함수가 뭉뚱그래지며, 작으면 극단적으로 뾰족해진다.

3. 공식


- 이곳에서는 나오는 가중치는 일종의 확률값으로 계산되는 데, 하나의 픽셀의 분포가 나올 확률이라고 생각하면된다. 그 픽셀의 밀도가 높으면 확률이 높게 나타나고 배경이나 외곽으로 갈수록 배경이 확률이 높기때문에, 가중치의 값은 낮아지게된다. 

- 가중치내에 있는 좌표들의(윈도우) 가중평균(무게중심)을 구하는 것이다. 각 픽셀들의 가중치를통해 전체 확률에서 x위치가 차지하는 가중치를 나누게되면 그 평균값이 곧 무게중심값이 되는것이다. 


- K(ri)는 커널함수로서  >> 아직 공부할게 있음.... 정확하게 표현을 못하겟음.

- 윈도우를 재조종하면서 새로운 X좌표가 중심을 잡도록 재조정한다. 

4. 기타 이용

- 히스토그램 즉 확률밀도와 유사도를 비교하여, 유사도가 가장큰 윈도우를 예측하여 트래킹한 사물의 크기또한 유추하는 것이 가능하다. 유사도는 Bhattacharyya 함수를 이용한다.