-
주성분분석(PCA)로 차원 축소하기Programming & Machine Learning/풀어쓰는 머신러닝 2017. 8. 2. 02:47
주성분분석(PCA)로 차원 축소 하기
PCA의 정의 - 비지도적 차원 축소 기법
여러 변수들의 변량을 주성분 분석(Principal Component Analysis)라고 불리는 서로 상관성이 높은 여러 변수들의 선형조합으로 만든 새로운 변수들로 요약 및 축약하는 기법. 비정규화된 모델에서 흔히 야기되는 일명 '차원의 저주' 문제를 해결하도록 도와주기도 한다. 우리는 회귀분석이나 의사결정트리등의 모델을 만들 때, 다중 공선성의 문제가 발생하는 것을 쉽게 볼 수 있다. 이런 경우를 해결하는 것이 바로 상관도가 높은 변수들을 데이터를 대표하는 주성분 혹은 요인으로 축소하여 모형개발에 이용하는 것이다. 주성분 분석은 고차원 데이터에서 최대 분산의 방향을 찾아, 새로운 부분 공간에 원래보다 작은 차원으로 투영하는 것인데 이 때 PCA는 데이터 각각에 대한 성분을 분석하는 것이 아니라 여러 데이터들이 모여 하나의 분포를 이룰 때 이 분포의 주 성분을 분석해 주는 방법이다. 여기서 주성분이라 함은 그 방향으로 데이터들의 분산이 가장 큰 방향벡터를 의미한다. 전체적인 과정은 다음과 같다. d차원의 데이터간의 연관성을 찾기 위해 데이터를 먼저 표준화를 시킨다. 피처 상호간의 각각의 공분산을 구하기 위해 공분산 행렬을 만든다. 그리고 공분산행렬을 아이겐벨류(고유값)와 아이겐벡터(고유벡터)로 분해한다. 공분산행렬을 통해 그 두 가지(고유값, 벡터)를 유도하는 것이 가능한데, 이를 Eigendecomposition이라 한다. 고유값과 고유벡터의 쌍은 최대 d개가 나올 수 있다. 여기서 피처를 대표한다고 할 만큼의 큰 고유값과 그 쌍이 k개 존재한다면, 데이터의 차원을 k개로 축소하는 것이다. 이 때, k개의 벡터는 새로운 데이터 차원의 basis가 된다.
공분산이란
일반적인 분산은 모집단에서부터 추출한 표본 데이터들의 편차의 제곱의 산술적 평균을 의미하는 것, 즉 평균으로부터 퍼진 정도를 의미한다. 반면 확률론과 통계학에서, 공분산은 2개의 확률변수의 상관정도를 나타내는 값이다. x와 y의 공분산은 x, y의 흩어진 정도가 얼마나 서로 상관관계를 가지고 흩어졌는지를 나타낸다. 만약 2개의 변수중 하나의 값이 상승하는 경향을 보일 때, 다른 값도 상승하는 경향의 상관관계에 있다면, 공분산의 값은 양수가 될 것이다. 반대로 2개의 변수중 하나의 값이 상승하는 경향을 보일 때, 다른 값이 하강하는 경향을 보인다면 공분산의 값은 음수가 된다. 이렇게 공분산은 상관관계의 상승 혹은 하강하는 경향을 이해할 수 있으나 2개 변수의 측정 단위의 크기에 따라 값이 달라지므로 상관분석을 통해 정도를 파악하기에는 부적절하다. 이것을 보완하기 위해 상관계수라는 것을 사용하는데, 확률변수의 절대적 크기에 영향을 받지 않도록 하는 것.
공분산 행렬
분산-공분산 행렬은 여러 변수와 관련된 분산과 공분산을 포함하는 정방형 행렬이다. (정방형 행렬은 행과 열의 개수가 동일한 행렬을 의미한다.) 행렬의 대각선 원소는 각 변수의 분산을 포함하며, 대각선 이외의 원소는 가능한 모든 변수 쌍 간의 공분산을 포함한다.
고유값(eigenvalue)과 고유벡터(eigenvector)
행렬 A를 선형변환으로 봤을 때, 선형변환 A에 의한 변환 결과가 자기 자신의 상수배가 되는 0이 아닌 벡터를 고유벡터(eigenvector)라 하고 이 상수배 값을 고유값(eigenvalue)라 한다. 자기 자신에 A라는 선형변환을 했을 때, 원래의 자기 자신의 고유한 특징(상수 λ 곱하기 자신은 자신)을 유지하는 벡터를 고유벡터라고 하는 것이다. 즉, nxn 정방행렬(고유값, 고유벡터는 정방행렬에 대해서만 정의된다) A에 대해 Av = λv를 만족하는 0이 아닌 열벡터 v를 고유벡터, 상수 λ를 고유값이라 정의한다. 좀더 정확한 용어로는 λ는 '행렬 A의 고유값', v는 '행렬 A의 λ에 대한 고유벡터'이다. - 출처 : http://darkpgmr.tistory.com/105 아래의 이미지가 이 내용에 대한 수식을 나타낸 것이다. A행렬은 공분산 행렬이 될 것이다. 더 정확히는, λ는 하나의 값이 아니라, λ1, λ2... λn 까지 구할 수 있다. 수식에서는 마치 λ가 하나인 것 처럼 보일 수 있지만, λ는 원래의 차원 개수만큼 생성된다. v1, v2, ... vn 으로 되어있는 고유벡터 역시 (v1, v2, ...vn)의 묶음이 n개 생성되는 것이다.
PCA에 한정하여 고유값과 고유벡터를 살펴보면, 공분산 행렬 A를 알면 두 결과값을 얻을 수 있다는 것을 알수있다. 기하학적 의미를 아는 것 역시 중요하다. 고유값과 고유벡터의 기하학적 의미는, 고유벡터는 선형변환 A를 하여도 방향이 보존되며 크기만 변하는 벡터라는 것이고 고유값은 그 고유벡터의 변하는 크기를 나타내는 상수라고 할 수 있다. 이렇게 고유값 및 고유벡터에 대한 수학적인 내용이나 기하학적 의미를 대략적으로 파악하는 것도 꽤나 중요한 일이지만, 더 깊은 내용을 제대로 알기 위해서는 수학적인 내공이 필요한 것 같다.
행렬의 mapping의 의미
행렬이란 선형변환이다. 선형 변환은 하나의 벡터 공간을 선형적으로 다른 벡터 공간으로 맵핑하는 기능이 있다. 선형대수학에서의 행렬을 이용한 rotation, shift, scale을 생각해보자. 원래의 성질을 어느정도 유지하면서 새로운 선형 공간으로 벡터들이 이동하거나 변환하여 맵핑된다. 차원 축소는 바로 행렬의 이러한 성질 덕분에 가능한 것이다. 다음의 이미지들은 행렬에 의한 벡터 맵핑의 예시이다.
다시 PCA
여기까지 정리가 되었다면 이제 공분산 행렬은 무엇인지, 고유벡터와 고유값의 의미가 무엇인지, 왜 이런 친구들을 행렬로 구태여 사용하는 지 알 수 있다. 이제는 정리한 개념들을 통합해서, 데이터 축소에 도대체 어떻게 사용되는 건지를 정리할 차례다. 결국 PCA란 입력 데이터들의 관계를 보기 위해 만든 공분산 행렬을 분해한 두 가지 성분을 이용한 것이다. 그 두 가지 성분이란 고유벡터와 고유값인데, 고유벡터는 데이터의 분산이 큰 방향을 나타내는 벡터, 즉 원 데이터의 경향성의 방향 따위를 나타내는 개념이다. 고유값은 그 분산의 크기를 나타내는 것이다. 따라서 고유값이 클수록, 데이터의 경향을 강하게 대표한다고 할 수 있다. 그래서 고유값이 높을수록 좋은 것이다. 이는 다시 말하면 PCA도 퍼셉트론과 회귀분석에서와 마찬가지로, 데이터에서 의미있는 '선' 혹은 '축'을 찾는 과정이라고 할 수 있다. 그리고 그 각각의 축은 하나의 주성분을 대표한다. 기하학적으로는 각각의 고유벡터들은 서로 수직이다. 즉 새로운 basis를 만들어낸다고 생각할 수 있다. 데이터에는 차원의 숫자 만큼의 주성분이 달리게 되는데, PCA는 여기서 가장 중요한 주성분만을 분석하고 우선순위를 매기자는 것이다. 그렇다면 실제적으로 어떻게 데이터를 축소한다는 것인가? feature selection의 경우, input feature 자체를 제외하는 것이지만 PCA같은 feature extract는 다르다. 데이터 자체에 칼을 대는 것이 아니라, 특별한 변환 규칙을 통해 새로운 데이터를 생성하는 개념에 더 가깝다고 볼 수 있다. 다음과 같은 예를 들어보자. ① 빙판길 미끄러짐 사고 ② 수도관 동파 ③ 제설 차량 이용으로 인한 소비 금액 ④ 폭설로 인한 휴교 횟수 ⑤ 열사병 환자의 수 다음과 같은 5개의 차원의 데이터가 있다고 하자. 하지만 데이터를 잘 살펴보면 모두 온도와 관계된 데이터라는 것을 알 수 있다. 이 다섯개의 데이터는 아마 축소가 가능할 것이다. 만약 PCA를 통해서 한다면, 가장 강한 에이겐 벨류를 가지는 벡터를 통해 입력 데이터를 하나의 차원으로 변환시키는 과정을 거치는 것이다. d차원의 데이터가 있을 때, 가장 큰 k개의 고유값에 대한 k개의 벡터를 선택하고, k개의 고유벡터로부터 투영행렬 W를 만든다. 이 W는 d차원의 입력데이터를 k차원의 새로운 피처 X로 변환시킨다. 이것이 PCA의 총체적인 개념이다. 구체적인 구현은 단순히 수학을 코딩으로 옮기는 문제이다. 얼마만큼의 차원으로까지 축소시키냐의 문제는, 에이겐벨류의 최대값이 작아지는 순간까지 점차적으로 하는 방법 등을 생각해 볼 수 있겠지만, 철저히 실전에서의 감각과 '해봄'에 의지하는 것 같다.
Python에서 PCA 구현하기
먼저 주성분을 추출하는 과정까지 진행해 본다. 과정은 다음과 같다. - 먼저 와인데이터를 분리하여 전처리한 뒤, 피처간의 공분산 행렬을 구한다. - 그리고 Numpy의 linalg.eig 함수를 이용하여 에이겐 벨류와 벡터를 추출한다. - 추출한 주성분을 아이겐벨류의 설명 분산 비율을 통하여 확인한다.
### data 불러오기 import pandas as pd df_wine = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data', header=None) df_wine.columns = ['Class label', 'Alcohol', 'Malic acid', 'Ash', 'Alcalinity of ash', 'Magnesium', 'Total phenols', 'Flavanoids', 'Nonflavanoid phenols', 'Proanthocyanins', 'Color intensity', 'Hue', 'OD280/OD315 of diluted wines', 'Proline'] df_wine.head() ### 데이터 전처리 - 데이터셋 분리 from sklearn.cross_validation import train_test_split X, y = df_wine.iloc[:, 1:].values, df_wine.iloc[:, 0].values X_train, X_test, y_train, y_test = \ train_test_split(X, y, test_size=0.3, random_state=0) ### 데이터 전처리 - 데이터 표준화 작업 from sklearn.preprocessing import StandardScaler sc = StandardScaler() X_train_std = sc.fit_transform(X_train) X_test_std = sc.transform(X_test) ### 공분산 행렬을 이용한 Eigendecomposition import numpy as np cov_mat = np.cov(X_train_std.T) # 공분산 행렬을 생성해주는 함수 # T는 Matrix의 T를 의미. 함수에 맞는 파라미터로 쓰기 위해 행렬을 돌려줌 eigen_vals, eigen_vecs = np.linalg.eig(cov_mat) print('\nEigenvalues \n%s' % eigen_vals) ### 에이겐벨류의 설명 분산 비율 tot = sum(eigen_vals) var_exp = [(i / tot) for i in sorted(eigen_vals, reverse=True)] # 에이겐벨류 / 에이겐벨류의 합 을 각각 구한다. 나온 각각의 값은 아이겐벨류의 설명 분산 비율이다. # 즉, 어떤 에이겐벨류가 가장 설명력이 높은지를 비율로 나타내기 위한 것이다. cum_var_exp = np.cumsum(var_exp) # 누적 합을 계산해주는 함수. -> 누적 백분위로 표현 ### 에이겐벨류의 영향력을 그래프로 시각화 import matplotlib.pyplot as plt %matplotlib inline plt.bar(range(1, 14), var_exp, alpha=0.5, align='center', label='individual explained variance') plt.step(range(1, 14), cum_var_exp, where='mid', label='cumulative explained variance') plt.ylabel('Explained variance ratio') plt.xlabel('Principal components') plt.legend(loc='best') plt.tight_layout() # plt.savefig('./figures/pca1.png', dpi=300) plt.show()
다음으로 와인 데이터를 새로운 주성분 축으로 변환하는 과정, 즉 피처변환을 진행해본다.
### 에이겐 쌍을 이용하여 투영행렬 생성 eigen_pairs = [(np.abs(eigen_vals[i]), eigen_vecs[:,i]) for i in range(len(eigen_vals))] # 에이겐 쌍 생성 -> 투플 자료형 eigen_pairs.sort(reverse=True) # 내림차순으로 정렬 w = np.hstack((eigen_pairs[0][1][:, np.newaxis], eigen_pairs[1][1][:, np.newaxis])) # 투영행렬 W : 변수를 2차원으로 축소시키는 투영행렬. # eigen_pairs의 0,1 번째만 -> 2개의 에이겐 쌍으로만 차원축소를 하겠다는 것. # hstack -> 행의 수가 같은 두 개 이상의 배열을 옆으로 연결하여, 열의 수가 늘어난 np배열을 만든다. # 1차원 배열끼리는 hstack 되지 않으므로 [:, np.newaxis]을 추가함. print('Matrix W:\n', w) ### 투영행렬로 피처 압축 X_train_std[0].dot(w) # X_train_std[0] 행렬과 W 행렬의 곱(내적연산) X_train_pca = X_train_std.dot(w) # 피처를 투영행렬에 곱한 값 -> 피처 축소된 결과 ### 변환된 데이터를 그래프로 시각화 colors = ['r', 'b', 'g'] markers = ['s', 'x', 'o'] for l, c, m in zip(np.unique(y_train), colors, markers): plt.scatter(X_train_pca[y_train==l, 0], X_train_pca[y_train==l, 1], c=c, label=l, marker=m) plt.xlabel('PC 1') plt.ylabel('PC 2') plt.legend(loc='lower left') plt.tight_layout() # plt.savefig('./figures/pca2.png', dpi=300) plt.show()
'Programming & Machine Learning > 풀어쓰는 머신러닝' 카테고리의 다른 글
선형판별분석(LDA)로 차원 축소하기 (0) 2017.08.10 차원 축소, 차원의 저주에 관하여 (2) 2017.08.10 뉴럴넷에서의 오버피팅과 해결책 (0) 2017.08.03 배치 방식과 온라인 방식의 모델 학습 (0) 2017.08.03 머신 러닝의 개요 - intro (0) 2017.07.29 댓글