dimensionality reduction 썸네일형 리스트형 비선형 차원 축소법: 오토인코더 차원을 축소하는 간단한 방법은 특정 데이터를 그 차원보다 더 작은 잠재 공간으로 변환하는 인코더를 만드는 것이다. $$ f: \mathbb{R}^D \rightarrow \mathbb{R}^M $$ 이 인코더가 제대로 동작하기 위해서는 (1) 함수 $f$를 어떻게 학습시킬 것인 지와 (2) 학습된 $f$가 어떻게 되길 바라는 지를 정확하게 명세하는 것이 중요하다. 오토인코더는 함수 $f$가 원래 데이터의 정보를 최대한 많이 들고 있는 것을 목표로 한다. 즉, 우리가 이 잠재 공간으로부터 다시 데이터 공간으로 복원했을 때, 원래 데이터와의 차이가 많이 나지 않아야 한다. 이를 손실 함수로 표현하면 다음과 같다. $$ minimize d \left( x , g \left( f \left( x \right) .. 더보기 비선형 차원 축소법: 커널 PCA 우리는 특정 데이터 포인트를 피쳐 공간으로 매핑시킴으로써 더 나은 차원 축소 기술을 수행할 수 있다. 더 좋은 차원 축소 기술은 축소된 차원에서의 거리와 우리가 믿는 거리 간의 일치를 제공한다. 주어진 비선형 매핑 $\phi$를 이용하면, 비선형 PCA의 목적식은 아래와 같아진다. $$ minimize \sum_{n=1}^{N} \left| \phi \left( x_n \right) - V V^\top \phi \left( x_n \right) \right|^2 $$ 이 목적식은 곧 $ \bar{S} = \frac{1}{N} \sum_{n=1}^{N} \phi \left( x_n \right) \phi \left( x_n \right)^\top $의 고유벡터들을 찾는 것이 되지만, 원래 데이터 차원보다 .. 더보기 이전 1 다음