Machine Learning 8 – K-means, PCA Details

이 글은 Coursera 에서 제공하는 Machine Learning 수업의 8 번째 챕터입니다.

이번시간에는 PCAclustering 을 배운다. PCA 가 어떻게 돌아가는지 알기위해 covariance matrix, eigen decomposition, singular value decomposition 등의 배경지식도 익혀보자. ~~K-means 는 거들뿐

Unsupervised Learning Intro

clustering 은 다양한 분야에 활용할 수 있다.

  • Market Segmentation
  • Social Network Analysis
  • Organize Computing Clusters
  • Astronomical Data Analysis

K-Means

(http://blog.csdn.net/linuxcumt)

랜덤한 위치에 centroid 를 잡고, 가까운 점들을 색칠 한뒤 그 점들의 중심으로 centroid 를 옮겨가면서 집단을 만들어 낸다.

k-means 의 인풋은 centroid 의 수인 kx1, x2, ... , xm 의 트레이닝 셋이다. 구체적인 알고리즘은

(http://blog.csdn.net/linuxcumt)

매 이터레이션마다 i to m 까지 루프를 돌면서 클러스터링된 원소들의 배열인 c^(i)1 to K 사이의 값을 넣는다. 이때 c^(i) 에 삽입될 값은, 해당 원소로부터 가장 가까운 centroid 의 인덱스다.

c^(i) is index of cluster (1, ..., K) to which example x^(i) is currently assigned

따라서 각 원소로부터의 거리를 최소로 하는 k 에 대해 c^(i) = k 다.

Optimization Objective

(http://blog.csdn.net/linuxcumt)

k-means 에서 최소화 하려는 cost function

다시 말해서 각 점에서 centroid 까지의 거리를 최소화 하는 것이 목표다.

이 함수 J 를 다른말로는 distortion function 이라 부른다. 알고리즘을 다시 보면

(http://blog.csdn.net/linuxcumt)

(1) clustering assignment step 에서는 mu 를 고정시키고 c^(i) 에 대해서 J 를 최소화 한다.
(2) move centroid step 에서는 c^(i) 를 고정시키고 mu 에 대해서 J 를 최소화 한다.

Random Initialization

(http://blog.csdn.net/linuxcumt)

위쪽 예제는 centroid 의 랜덤 초기화에서 좋게 배치된 경우이고, 아래쪽은 운이 나쁜 경우를 설명하는 그림이다. 이것이 설명하는 바는 centroid 의 초기화에 따라 결과가 달라질 수 있다는 것이다. 아래 그림을 보면

(http://blog.csdn.net/linuxcumt)

따라서 local optima 를 피가히 위해, 그리고 좋은 clustering 을 얻기 위해 random initialization 이용하여 k-mean 를 여러번 돌릴 수 있다.

(http://blog.csdn.net/linuxcumt)

여러번 k-mean 를 돌려 얻은 J 에 대해 최소값을 가지는 J 를 이용해 클러스터링을 얻을 수 있다.

그러나 K 가 매우 크다면, random initialization 들어가는 계산 비용에 비해 별로 좋은 결과를 돌려주지 못할 것이다.

random initialization 을 하는 방법으로

Pick k distinct random integers i_1, ..., i_k from {1, ..., m}.
Set mu_1 = x^(i_1), ..., mu_k = x^(i_k)

Choosing the Number of Cluster

K 값을 선택하기 위해 Elbow method 를 이용할 수 있다.

(http://blog.csdn.net/linuxcumt)

K 값의 변화에 따라 distortion function J 값이 급격히 감소하는 지점을 선택하는 방법이다. 그런데 J 값이 오른쪽 그림처럼 좀 애매하게 감소하면 어떻게 할까?

Sometimes, you are running K-means to get clusters to use for some later / downstream purpose. Evaluate K-means based on a metric for hwo well it perfomrs for that later purpose.

예를 들어서, 몸무게 / 키 에 따라 집단을 분류해 그에 맞추어 티셔츠를 만든다고 할 때 K = 3 or 5 에 대해서는 단순히 좋은 클러스터링을 얻는것은 물론 어떤 K 가 수지타산이 더 맞을지 티셔츠 비즈니스적인 관점에서 생각을 해봐야 한다.

(http://blog.csdn.net/abcjennifer)

Dimensionality Reduction

이번엔 unsupervised learning 의 또 다른 기법인 dimensionality reduction 을 알아보자. 이 기법의 motivation 은 2가지다.

(1) Data Compression
(2) Data Visualization

Data Compression

(http://blog.csdn.net/linuxcumt)

두 축을 보면 하나는 인치로, 다른 하나는 센치다. highly redundant data 이기 때문에 하나의 차원으로 축소할 수 있다.

중복된 feature만 차원을 줄일 수 있는 것은 아니다

예를 들어 데이터의 한 축을 pilot skill 다른 축을 pilot enjoyment 라 하고 두 feature 간 관계를 거의 직선으로 나타낼 수 있다고 하자. 이 새로운 직선을 pliot aptitude 라 부르고 두개의 feature 를 대신하는 새로운 feature 로 사용할 수 있다.

feature 가 한 두개면 중복되는 것을 걸러내거나, 새로운 feature 로 만들기 쉬운데 만약 수백개라면 이것도 일이다.

위 그림을 다시 보면 x_1, x_2z_1 으로 대신하고 있다. feature 의 수가 줄어든 것이다.

이렇게 차원을 줄이면 연산량이 줄어들의 전체 알고리즘의 성능도 빨라진다.

(http://blog.csdn.net/linuxcumt)

위 그림이 dimensionality reduction 에 대한 intuition 을 제공한다. 3차원의 데이터를 2차원의 평면으로 투영해 새로운 feature setz 를 사용해 데이터를 나타낼 수 있다.

그림은 3차원 -> 2차원 이지만, 만약 10000 개를 1000 개를 줄일 수 있다면 어마어마한 중복을 줄일 수 있다.

조금 더 이해가 잘되는 3차원 그림을 가져오면


(http://scipy-lectures.github.io)

Data Visualization

dimensionality reduction 의 두 번째 motivation 은 바로 data visualization 이다.

GDP, Country size 등 다양한 feature 500개를 2개로 줄여 그래프에 그려보면 데이터에 대한 어떤 intuition 을 얻을 수도 있다. 즉 데이터가 주로 어떤 종류의 feature 에 의해 많이 영향을 받는지 파악할수 있다는 것이다.

강의에 나온 예제에서는 z_1country size / GDP, z_2per person GDP 였다.

visualization 을 위한 경우 2, 3 개 정도로 차원을 줄일 수 있다.

Principal Component Analysis Problem Formulation

(http://blog.csdn.net/linuxcumt)

2개의 feature x_1, x_2 를 하나로 줄인다고 하자. 이 경우 projection error (파란선의 길이) 를 최소로 하는 선 (빨강)을 찾으려고 할 것이다. 반면 자주색 선의 경우 projection error 가 가장 큰 선이라 볼 수있다.

(http://blog.csdn.net/linuxcumt)

따라서 n 차원을 k 차원으로 축소할때는 각 데이터를 k 개의 벡터 u 에 대해 투영시켰을때의 projection error 를 최소로 하는 벡터 u 를 찾으면 된다.

Reduce from n-dimension to k-dimension, find k vectors u^1, ..., u^k onto wihch to project the data, so as to minimized the projection error

쉽게 생각하면 k 개의 direction 을 찾는다고 생각하면 된다.

(http://blog.csdn.net/linuxcumt)

왼쪽 그림은 linear regression 에서 찾아내는 오차, 즉 y 값과 prediction 간의 거리이고

우측 그림은 PCA 로 찾아낸 선과 각 점사이의 projection error 를 파란샌으로 나타냈다.

두 그림에서 볼 수 있듯이 PCAlinear regression 이 아니다. PCA 에서는 y 값이란 개념이 없다.

PCA Algorithm

(http://blog.csdn.net/linuxcumt)

PCA 전에는 preprocessing step 을 거친다. 이는 다양한 feature 간 스케일이 다르기 때문에 비교할만한 스케일을 얻기 위함이다.

(http://blog.csdn.net/linuxcumt)

그 후에는 n 차원으로부터 projection error 가 최소인 k 개의 벡터를 얻는 계산을 수행한다.

(1) 먼저 Sigma 라 부르는 covariance matrix 를 계산하고 (작은 시그마)
(2) 그 후에 Sigmaeigenvectors 를 계산한다.

여기서 svdsigular value decomposition 을 의미한다.

Sigma 를 얻기 위한 vectorization(1/m) * X' * X 다.

(http://blog.csdn.net/linuxcumt)

svd 함수의 리턴값으로 U 매트릭스가 나오는데, 이건 n x n 매트릭스다. 여기서 첫 k 개의 컬럼을 취한다. 이 매트릭스를 Y 라 부르면 새로운 feature vector z

z = Y^T * x

정리하면 아래 그림과 같다.

(http://blog.csdn.net/linuxcumt)

PCA Details

넘어가기 전에 잠깐 PCA 에서 다룬 covariance matrixeigen vector 를 좀 보고 넘어가자.

Covariance

두 확률 변수 X, Y 에 대해서 covariance

보면 알겠지만, 독립이면 covariance 값이 0 이다. 따라서 두 변수간 상관정도라 보면 된다. 공분산이 양수면 양의 상관관계를, 음수이면 음의 상관관계를 가진다.

이해를 위해서 여기로 부터 인용을 하자면

x의 분산은 x들이 평균을 중심으로 얼마나 흩어져 있는지를 나타내고, x와 y의 공분산은 x, y의 흩어진 정도가 얼마나 서로 상관관계를 가지고 흩어졌는지를 나타낸다. 예를 들어, x와 y 각각의 분산은 일정한데 x가 E(x)보다 클때 y도 E(y)보다 크면 공분산은 최대가 되고, x가 E(x)보다 커질때 y는 E(y)보다 작아지면 공분산은 최소(음수가 됨), 서로 상관관계가 없으면 공분산은 0이 된다.

공분산은 몇 가지 성질이 있는데

(1) X, Y 가 독립이면 covariance = 0 이다. 그러나 역은 gaussian random variable 일때만 성립한다.

(2)

(3)

(4)

공분산마다 값이 다르기 때문에 비교를 위해 X, Y 의 표준편차로 나눈 것을 correlation, 상관계수 라 부른다.

Covariance Matrix

이제 covariance matrix 를 알아보자. 공분산 행렬은 데이터 X (벡터) 에 대해 X 의 두 원소 X^(i), X^(j) 간 공분산을 구한 행렬이다. Xn 벡터라 하면, X 의 공분산 행렬은 n x n 행렬이다. 그리고 Cov(X, Y) = Cov(Y, X) 이므로 symmetric matrix, 대칭행렬 이기도 하다.

(http://blog.csdn.net/linuxcumt)

Eigen vector, Eigen value

아까 슬라이드에서 잠깐 eigen vector 가 나왔는데, 우리말로 고유벡터 라 부른다. 고유벡터 v 는 행렬 A 곱했을때 상수 λ 와 다음의 관계를 가진다. (An x n 매트릭스)

이해를 위해 여기서 인용하면

square matrix A 를 선형변환으로 봤을 때, 선형 변환 A 에 의한 변환 결과가 자기 자신의 상수배 λ 가 되는 0 이 아닌 벡터 veigen vector 라 하고, 이 λeigen value 라 한다.

기하학적으로 보면

(http://en.wikipedia.org)

Diagonalization

SVD 에 대해 이야기 하기 전에 matri diagonalizaion, 행렬 대각화 도 좀 보자.

대각행렬은 principal diagonal 원소를 제외한 모든 원소가 0 인 sqaure matrix 인데, sqaure matrix, 정방행렬 A 에 대해서

PD 가 존재하면 Adiagonalizable matrix, 대각화 가능 행렬 Pdiagonalizing matrix, 대각화하는 행렬 이라 부른다.

위 식에서 Ddiagonal matrix 인데,

저 식에서 A 위주로 정리하면

이 때 P 가 고유벡터를 열벡터로 하는 행렬이고, D 가 고유값들을 대각 원소로 하는 대각행렬이면 eigen decomposition 이라 부른다.

위에서 covariance matrix 는 대칭행렬이라 말했는데, (A = A^T) 이 대칭행렬은

(1) 항상 eigen decomposition 이 가능하며
(2) orthogonal matrix 로 대각화가 가능하다. (P^-1 = P^T)

Singular Value Decomposition

이제, Sigular Value Decomposition, 특이값 분해 에 대해 이야기 하자. SVD 도 행렬을 대각화 하는 한 방법인데, eigen decomposition 과 달리 m x n 행렬에 적용 가능하다.

m x n 행렬 A 에 대해 SVD

여기서 m x mUAA^Teigen decomposition 해서 얻은 orthogonal matrix 고, U 의 열벡터를 Aleft singular vector 라 부른다.

이 때 U eigen decomposition 해서 나온 diagonalizing matrix 이므로 U 의 열벡터는 AA^Teigen vectors 다.

n x nVA^TAeigen decomposition 해서 얻은 orthogonal matrixV 의 열벡터를 Aright singular vector 라 부른다.

마찬가지로 Veigen decomposition 의 결과로 얻은 diagonalizing matrix 이므로 V 의 열벡터는 A^TAeigen vectors

\\SigmaAA^T, A^TAeigen decomposition 해서 얻은 eigen valuesquare root 를 대각원소로 하는 m x n 의 직사각 대각행렬이다. 이 때 대각 원소들이 Asingular value, 특이값 이다.

(관련 그림과 설명은 여기서 참조했습니다.)

이 때 AA^TA^TA 의 고유값 λ 는 동일하며 0 이상이다. 그렇기 때문에 square root 를 씌우고, 동일한 행렬 \\Sigma 로 표현할 수 있다. (자세한 설명은 여기 참조)

AA^TA^TA 의 공통의 고유값에 대해

이고 여기에 square root 를 취한 것이 Asingular value, 특이값 이며, 이 특이값들을 대각원소로 하는 m x n 행렬이 \\Sigma 다.

이 때 A 의 특이값과 left singular value u_i, right singular value v_i 에 대해

SVD 의 기하학적 의미는 여기를 인용하면

행렬을 x’ = Ax와 같이 좌표공간에서의 선형변환으로 봤을 때 직교행렬(orthogonal matrix)의 기하학적 의미는 회전변환(rotation transformation) 또는 반전된(reflected) 회전변환, 대각행렬(diagonal maxtrix)의 기하학적 의미는 각 좌표성분으로의 스케일변환(scale transformation)이다.

행렬 R이 직교행렬(orthogonal matrix)이라면 RRT = E이다. 따라서 det(RRT) = det®det(RT) = det®2 = 1이므로 det®는 항상 +1, 또는 -1이다. 만일 det®=1라면 이 직교행렬은 회전변환을 나타내고 det®=-1라면 뒤집혀진(reflected) 회전변환을 나타낸다.

따라서 식 (1), A = UΣVT에서 U, V는 직교행렬, Σ는 대각행렬이므로 Ax는 x를 먼저 VT에 의해 회전시킨 후 Σ로 스케일을 변화시키고 다시 U로 회전시키는 것임을 알 수 있다.

(http://darkpgmr.tistory.com/106)

다시 처음의 슬라이드로 돌아가면

(http://blog.csdn.net/linuxcumt)

여기서 svd 함수의 인자 Sigmacovariant matrix 고 리턴값 U, S, V 가 각각 위에서 본 U, \\Sigma, V 다. 변수 이름을 헷갈리게 지으심;

마지막 질문이다. PCA 에서 데이터 매트릭스 X 에 대해 covariant matrix XX^T 로 구한 eigen vector 의 열벡터가, 왼쪽부터 순서대로 분산을 최대로 하는 벡터(방향)인데, (여기참조)

왜 우리는 SVDU 를 택하는 것일까? 다시 말해 PCASVD 는 무슨 관계일까?

What is the intuitive relationship between SVD and PCA 를 참조하면,

데이터 매트릭스 X 에 대해서, 공분산 매트릭스 XX^T 에 대해

이 때 XSVD

U, V 는 위에서 언급했듯이 XX^T, X^TT 의 고유값 분해로 얻은 대칭행렬 이므로 VV^T = I, UU^T = I 이다. 따라서

이므로 분산이 큰 순서대로의 벡터를 열벡터로 담고 있는 XX^T = WDW^T 에서의 W 가 바로 SVD 의 결과인 U 다.

실제로 PCA 를 하기 위해 SVD 를 이용하는건 numerically 더 낫다고 한다.

In fact, using the SVD to perform PCA makes much better sense numerically than forming the covariance matrix to begin with, since the formation of XX⊤ can cause loss of precision. This is detailed in books on numerical linear algebra, but I’ll leave you with an example of a matrix that can be stable SVD’d, but forming XX⊤ can be disastrous

다 정리하고 보니 드는 생각이,

“왜 공분산 행렬을 eigen decomposition 한 결과 XX^T = WDW^T 에서 W 가 공분산 행렬, 즉 데이터간 상관관계, 즉 데이터 그 자체를 설명하는 걸까?”

여기 에서 얻은 답은,

공분산 매트릭스 자체는 diagonal matrix 가 아니다. 다시 말해 데이터 X 의 각 변수간 상관 관계를 담고 있다.

그런데, 공분산 매트릭스를 대각화 한다면 변수간 상관관계는 사라진다. 다시 말해

XX^T = WDW^T 에서 D 자체에는 본래 데이터 X의 변수간 상관 관계가 포함되어 있지 않다. 그러면, 그 데이터는 다 WW^T 에 들어있다는 소리인데, W^TW 로 표현 가능하므로 W 에 데이터간 상관 관계가 모두 담겨있다는 소리다.

Covariance matrix Cy (it is symmetric) encodes the correlations between variables of a vector. In general a covariance matrix is non-diagonal (i.e. have non zero correlations with respect to different variables).

But it’s interesting to ask, is it possible to diagonalize the covariance matrix by changing basis of the vector?. In this case there will be no (i.e. zero) correlations between different variables of the vector.

Diagonalization of this symmetric matrix is possible with eigen value decomposition.

그러면 마지막 질문, W 의 좌측열부터가 왜 높은 분산을 가질까?

Choosing the number of PCA

적절한 k 의 수는 어떻게 구할까?

(http://blog.csdn.net/linuxcumt)

위에서 언급했듯이 PCA 가 하는 일은 projection error 를 최소화 하는 것이다.

k 를 구하면 99% 의 variance 가 유지된다. 적당한 treshold 값에 해당하는 k 값을 찾으면 된다.

알고리즘은 이런데 (좌측),

(http://blog.csdn.net/linuxcumt)

매번 계산하는건 굉장히 비 효율적이다. 따라서 우측처럼 데이터에 대한 singular value 를 이용하면 더 계산이 쉬워진다.

Reconstruction from Compressed Representation

잘 보면 PCA 가 하는 일은 높은 차원의 데이터를 최대한 보존하면서 차수를 줄이는 일이다. 압축 알고리즘과 비슷하다. (실제로 이미지 압축에 쓴다고 한다.)

그럼 압축된 차원 z 에서 다시 본래의 데이터 차원 x 를 복구하려면 어떻게 해야할까?

(http://blog.csdn.net/linuxcumt)

위 그림처럼 z = U^T * x 라 할때 좌변에 U 를 곱하면 x_app = U * z 에서 x_app 는 거의 x 에 가까워진다.

Advice for Apply PCA

(http://blog.csdn.net/linuxcumt)

supervised learning 의 속도를 올리는데도 쓸 수 있다. 이미지가 100 x 100 이면 10000 개의 feature 인데, 이건 어마어마하다.

먼저 input x 를 뽑아내 여기에 대해 PCA 를 실행하면 차원을 줄인 training set 을 얻을 수 있다.

주의할점은 U 를 찾을때 training set 에만 하고 cross validation 이나 test 까지 포함해서 U 를 찾으면 안된다. 나중에 training set 으로만 찾아낸 U 를 이용해서 CV, test 에 대해 다시 PCA 하자.

다른 PCA 응용으로는

  • Reduce memory, disk needed to store data
  • Speed up learning algorithm
  • Visualization (k = 2 or 3)

(http://blog.csdn.net/linuxcumt)

PCA 를 이용하면 feature 의 수가 줄기 때문에 overfitting 을 방지하기 위해 사용할 수 있다고 생각하겠지만, 별로 좋은 생각은 아니다.

작동은 할지 모르겠지만 regularization 을 이용하는 편이 낫다.

왜냐하면 PCAy 값이 없는 상태에서 작동하기 때문에 y 를 고려하지 않은 데이터가 손실이 발생할 수 있다. 1% 만 손실된다 하더라도, 그 1%y 와 관련해 굉장히 중요한 정보일 수 있다.

(http://blog.csdn.net/linuxcumt)

또 다른 잘못된 PCA 의 사용으로는, 그냥 무작정 PCA 를 사용하는 것이다.

original data x 에 대해 알고리즘을 구현도 안해보고, 바로 PCA 의 결과인 z 를 이용하려는건 좋은 생각이 아니다.

x 대해 작업 해보고 결과가 별로일때 PCA 를 고려하자.

References

(1) Machine Learning by Andrew NG
(2) http://blog.csdn.net/linuxcumt
(3) http://blog.csdn.net/abcjennifer
(4) http://scipy-lectures.github.io
(5) Wiki: Correlation and dependence
(6) http://en.wikipedia.org/wiki/Covariance
(7) http://darkpgmr.tistory.com/110
(8) http://darkpgmr.tistory.com/105
(9) Wiki: Eigenvalues and Eigenvectors
(10) http://www.ktword.co.kr
(11) http://darkpgmr.tistory.com/106
(12) What is the intuitive relationship between SVD and PCA

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google+ photo

You are commenting using your Google+ account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.