机器学习day11降维

降维

用一个低维度的向量表示原来高维度的特征,避免维度灾难。

降维方法

  • 主成分分析

  • 线性判别分析

  • 等距映射

  • 局部线性嵌入

  • 拉普拉斯特征映射

  • 局部保留投影

PCA最大方差理论

原始数据高维向量包含冗余与噪声。主成分分析(Principal Components Analysis,PCA)是最经典的降维方法,具有线性、非监督、全局等特点。
PCA需要定义主成分,设计提取主成分。
举个例子
如果在三维空间里面,一系列数据点过一个平面,如果我们使用xyz来表示,就需要用到三个维度。而如果我们将其放在一个平面,使用xy来表示,那么就只有两个维度,而且数据也不会有任何的丢失,这样,我们就完成了从降维,从三维到二维。
对于给定的一组数据image.png

,其中所有向量均为列向量,中心化后表示为image.png

,其中image.png

PCA的求解方法。

  1. 对样本数据进行中心化处理。

  2. 求样本协方差矩阵。

  3. 对协方差矩阵进行特征值分解,将特征值从大到小排列。

  4. 取特征值前d大对应的特征向量

  5. image.png
  6. ,通过以下映射将n维样本映射到d维


猜你喜欢

转载自blog.51cto.com/15069488/2578598
今日推荐