子空间与PCA

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/qq_36880027/article/details/102530388

1.Jason Gu

说说我理解的子空间学习。
子空间学习大意是指通过投影,实现高维特征向低维空间的映射,是一种经典的降维思想。例如人脸图像,如果每幅图像提取出来的特征是1000维,则每幅图像对应着1000维空间中的一个点。维数太高给计算带来很多问题,且很多人认为真实有效的人脸图像特征并没有那么高维,可能只有100维,即每幅人脸只是100维空间中的一个点。将特征从1000维压缩到100维,就是子空间学习问题。
在模式识别中,可能绝大多数的维数约简(降维,投影)算法都算是子空间学习,如PCA, LDA, LPP, LLE等等。
子空间学习的主要问题,就是如何将特征从高维空间压缩到低维空间,需要保留什么样的信息,设定什么样的准则,低维空间的特征具有哪些特征等问题。

2.Li Eta

子空间学习: 举例说明,比如你拿到了一组数据要做分类任务,然而数据分布在一个高维空间中,不太方便处理,维度太高导致采用的分类模型的复杂度也相应增高,最终导致分类模型容易过拟合。一般情况下,这个问题无法解决,但是,数据中往往存在一些特性使得这个问题又有了可以解决的希望,比如数据其实分布在高维空间的一个子空间中,你拿到的高维数据其实是子空间中的无噪声数据+高维噪声数据,而这个子空间的维度其实不是很大,那么找出这个子空间,就能保证尽量不丢失信息又能降低数据维度,在这个子空间中做训练,就可以降低过拟合现象。**常见的PCA LDA LLE 等都是基于spectral method(谱方法)的子空间学习方法,往往可以看做是kernel pca的特例。**还有一类子空间学习方法是R. Vidal做的SSC(subspace clustering)系列,有相应的理论保证。

3.PCA详解

猜你喜欢

转载自blog.csdn.net/qq_36880027/article/details/102530388
PCA