Spark入门:主成分分析(PCA)

二、主成分分析(PCA)

1、概念介绍

主成分分析(PCA) 是一种对数据进行旋转变换的统计学方法,其本质是在线性空间中进行一个基变换,使得变换后的数据投影在一组新的“坐标轴”上的方差最大化,随后,裁剪掉变换后方差很小的“坐标轴”,剩下的新“坐标轴”即被称为 主成分(Principal Component) ,它们可以在一个较低维度的子空间中尽可能地表示原有数据的性质。主成分分析被广泛应用在各种统计学、机器学习问题中,是最常见的降维方法之一。PCA有许多具体的实现方法,可以通过计算协方差矩阵,甚至是通过上文提到的SVD分解来进行PCA变换。

2、PCA变换

MLlib提供了两种进行PCA变换的方法,第一种与上文提到的SVD分解类似,位于org.apache.spark.mllib.linalg包下的RowMatrix中,这里,我们同样读入上文中提到的a.mat文件,对其进行PCA变换:

 
  
  1. scala> import org.apache.spark.mllib.linalg.Vectors
  2. scala> import org.apache.spark.mllib.linalg.distributed.RowMatrix
  3. scala> val data = sc.textFile("a.mat").map(_.split(" ").map(_.toDouble)).map(line => Vectors.dense(line))
  4. data: org.apache.spark.rdd.RDD[org.apache.spark.mllib.linalg.Vector] = MapPartitionsRDD[3] at map at <console>:31
  5. //通过RDD[Vectors]创建行矩阵
  6. scala> val rm = new RowMatrix(data)
  7. rm: org.apache.spark.mllib.linalg.distributed.RowMatrix = org.apache.spark.mllib.linalg.distributed.RowMatrix@4397952a
  8. //保留前3个主成分
  9. scala> val pc = rm.computePrincipalComponents(3)
  10. pc: org.apache.spark.mllib.linalg.Matrix =
  11. -0.41267731212833847 -0.3096216957951525 0.1822187433607524
  12. 0.22357946922702987 -0.08150768817940773 0.5905947537762997
  13. -0.08813803143909382 -0.5339474873283436 -0.2258410886711858
  14. 0.07580492185074224 -0.56869017430423 -0.28981327663106565
  15. 0.4399389896865264 -0.23105821586820194 0.3185548657550075
  16. -0.08276152212493619 0.3798283369681188 -0.4216195003799105
  17. 0.3952116027336311 -0.19598446496556066 -0.17237034054712738
  18. 0.43580231831608096 -0.023441639969444372 -0.4151661847170216
  19. 0.468703853681766 0.2288352748369381 0.04103087747663084
scala

可以看到,主成分矩阵是一个尺寸为(9,3)的矩阵,其中每一列代表一个主成分(新坐标轴),每一行代表原有的一个特征,而a.mat矩阵可以看成是一个有4个样本,9个特征的数据集,那么,主成分矩阵相当于把原有的9维特征空间投影到一个3维的空间中,从而达到降维的效果。

可以通过矩阵乘法来完成对原矩阵的PCA变换,可以看到原有的(4,9)矩阵被变换成新的(4,3)矩阵。

 
  
  1. scala> val projected = rm.multiply(pc)
  2. projected: org.apache.spark.mllib.linalg.distributed.RowMatrix = org.apache.spark.mllib.linalg.distributed.RowMatrix@2a805829
  3. scala> projected.rows.foreach(println)
  4. [12.247647483894383,-2.725468189870252,-5.568954759405281]
  5. [2.8762985358626505,-2.2654415718974685,1.428630138613534]
  6. [12.284448024169402,-12.510510992280857,-0.16048149283293078]
  7. [-1.2537294080109986,-10.15675264890709,-4.8697886049036025]
scala

需要注意的是,MLlib提供的PCA变换方法最多只能处理65535维的数据。

3、“模型式”的PCA变换实现

除了矩阵类内置的PCA变换外,MLlib还提供了一种“模型式”的PCA变换实现,它位于org.apache.spark.mllib.feature包下的PCA类,它可以接受RDD[Vectors]作为参数,进行PCA变换。

该方法特别适用于原始数据是LabeledPoint类型的情况,只需取出LabeledPointfeature成员(它是RDD[Vector]类型),对其做PCA操作后再放回,即可在不影响原有标签情况下进行PCA变换。

首先引入需要使用到的类:

 
  
  1. import org.apache.spark.mllib.feature.PCA
  2. import org.apache.spark.mllib.regression.LabeledPoint
scala

依然使用前文的a.mat矩阵,为了创造出LabeledPoint,我们为第一个样本标注标签为0.0,其他为1.0

 
  
  1. scala> val data = sc.textFile("a.mat").map(_.split(" ").map(_.toDouble)).map(line => {
  2. | LabeledPoint( if(line(0) > 1.0) 1.toDouble else 0.toDouble, Vectors.dense(line) )
  3. | })
  4. data: org.apache.spark.rdd.RDD[org.apache.spark.mllib.regression.LabeledPoint] = MapPartitionsRDD[16] at map at <console>:34
  5.  
  6. scala> data.foreach(println)
  7. (0.0,[1.0,2.0,3.0,4.0,5.0,6.0,7.0,8.0,9.0])
  8. (1.0,[6.0,4.0,2.0,1.0,3.0,4.0,2.0,1.0,5.0])
  9. (1.0,[5.0,6.0,7.0,8.0,9.0,0.0,8.0,6.0,7.0])
  10. (1.0,[9.0,0.0,8.0,7.0,1.0,4.0,3.0,2.0,1.0])
scala

随后,创建一个PCA类的对象,在构造器中给定主成分个数为3,并调用其fit方法来生成一个PCAModel类的对象pca,该对象保存了对应的主成分矩阵:

 
  
  1. scala> val pca = new PCA(3).fit(data.map(_.features))
  2. pca: org.apache.spark.mllib.feature.PCAModel = org.apache.spark.mllib.feature.PCAModel@68602c26
scala

对于LabeledPoint型的数据来说,可使用map算子对每一条数据进行处理,将features成员替换成PCA变换后的特征即可:

 
  
  1. scala> val projected = data.map(p => p.copy(features = pca.transform(p.features)))
  2. projected: org.apache.spark.rdd.RDD[org.apache.spark.mllib.regression.LabeledPoint] = MapPartitionsRDD[20] at map at <console>:39
  3.  
  4. scala> projected.foreach(println)
  5. (0.0,[12.247647483894383,-2.725468189870252,-5.568954759405281])
  6. (1.0,[2.8762985358626505,-2.2654415718974685,1.428630138613534])
  7. (1.0,[12.284448024169402,-12.510510992280857,-0.16048149283293078])
  8. (1.0,[-1.2537294080109986,-10.15675264890709,-4.8697886049036025])

猜你喜欢

转载自blog.csdn.net/kwame211/article/details/80731389