原创声明:本文为犇丿灬犇原创文章未经博主允许不得转载。犇丿灬犇博客地址 [犇丿灬犇博客]
主成分分析(Principal components analysis,以下简称PCA)是一种简单的机器学习算法。在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用。可以通过线性代数的方法进行推导。
推导过程
假设在
空间有
个点
,我们希望对这些点进行有损压缩。这可以使我们使用更少的内存来存储信息,但我们希望精度损失尽可能少。
主成分分析是一种编码方法,即用函数
,其中
,
,
,主成分分析选择解码函数为
,其中
,其列向量彼此正交且为单位向量,为得到一个最优解
,需要使
的距离最小,即:
也即:
由于 不依赖于 因此
更进一步带入
根据梯度下降法取
的梯度等于零
得:
因此
接下来分析如何挑选 ,要挑选最优的 就必须使所有的点重构值与真实值之间距离和最小,即:
为简化运算以寻求 的算法,取 此时 变为一个列向量 。
整理得:
将求和形式写成矩阵形式:
不考虑
得:
整理(除去与 无关项)得:
考虑
上式可以通过特征分解求解,最优的 是 的最大特征值对应的特征向量。此为 时的情况,更一般的,主成分分析可以取 个特征值对应的特征向量,这可以用数学归纳法证明。
sklearn中主成分分析法的使用
class sklearn.decomposition.PCA(n_components=None, copy=True, whiten=False)
参数含义
n_components
意义:PCA算法中所要保留的主成分个数n,也即保留下来的特征个数n
类型:int 或者 string,缺省时默认为None,所有成分被保留。
赋值为int,比如n_components=1,将把原始数据降到一个维度。
赋值为string,比如n_components=’mle’,将自动选取特征个数n,使得满足所要求的方差百分比。
copy:
类型:bool,True或者False,缺省时默认为True。
意义:表示是否在运行算法时,将原始训练数据复制一份。
若为True,则运行PCA算法后,原始训练数据的值不会有任何改变,因为是在原始数据的副本上进行运算;
若为False,则运行PCA算法后,原始训练数据的值会改,因为是在原始数据上进行降维计算。
whiten:
类型:bool,缺省时默认为False
意义:白化,使得每个特征具有相同的方差。
类对象
components_ :返回具有最大方差的成分。
explained_variance_ratio_:返回 所保留的n个成分各自的方差百分比。
n_components_:返回所保留的成分个数n。
mean_:
noise_variance_:
类方法
fit(X,y=None)
fit()可以说是scikit-learn中通用的方法,每个需要训练的算法都会有fit()方法,它其实就是算法中的“训练”这一步骤。因为PCA是无监督学习算法,此处y自然等于None。
fit(X),表示用数据X来训练PCA模型。
函数返回值:调用fit方法的对象本身。比如pca.fit(X),表示用X对pca这个对象进行训练。
fit_transform(X)
用X来训练PCA模型,同时返回降维后的数据。
newX=pca.fit_transform(X),newX就是降维后的数据。
inverse_transform()
将降维后的数据转换成原始数据,X=pca.inverse_transform(newX)
transform(X)
将数据X转换成降维后的数据。当模型训练好后,对于新输入的数据,都可以用transform方法来降维。
此外,还有get_covariance()、get_precision()、get_params(deep=True)、score(X, y=None)等方法。
- https://www.cnblogs.com/eczhou/p/5433856.html
- [美]伊恩·古德费洛(Lan Goodfellow)[加]约书亚·本吉奥(Yoshua Bengio)[加]亚伦·库维尔(Aaron Courville)深度学习【M】