数据挖掘十大经典算法 之 K-Means算法

一:非监督中的Kmean算法分类

聚类(clustering) 属于非监督学习 (unsupervised learning),无类别标记(class label).

观察下图,相同类别的通过属性之间的相似性聚集在一起,算法中并未涉及类别标记的问题。

二:K-means 算法详解

K-几个聚类中心  Mean-均值,每次迭代的时候使用均值方式迭代

 Clustering 中的经典算法,数据挖掘十大经典算法之一

 算法接受参数 k ;然后将事先输入的n个数据对象划分为 k个聚类以便使得所获得的聚类满足:同一聚类中的对象相似度较高;而不同聚类中的对象相似度较小。

算法思想:

以空间中k个点为中心进行聚类,对最靠近他们的对象归类。通过迭代的方法,逐次更新各聚类中心的值,直至得到最好的聚类结果

算法描述:

(1)随机适当选择c个类的初始中心;

(2)在第k次迭代中,对任意一个样本,求其到c各中心的距离,将该样本归到距离最短的中心所在的类;

(3)利用均值等方法更新该类的中心值;

(4)对于所有的c个聚类中心,如果利用(2)(3)的迭代法更新后,值保持不变,则迭代结束,否则继续迭代。

终止条件:迭代次数/簇中心变化率/最小平方误差MSE

算法核心步骤:

计算距离---归类-----计算均值---距离----归类----均值----距离--.........

(1)求解第i个样本xi到达第j个聚类中心的距离,选择j最小的值赋值给第i个样本的标记值。

(2)对于属于第j个样本的所有的xj求均值,作为第j个样本的新的聚类中心,聚类中心改变了,重新计算标记信息,标记变了重新计算距离。

   算法流程:

 

   输入:k, data[n];

       (1) 选择k个初始中心点,例如c[0]=data[0],…c[k-1]=data[k-1];

       (2) 对于data[0]….data[n], 分别与c[0]…c[k-1]比较,假定与c[i]差值最少,就标记为i;

       (3) 对于所有标记为i点,重新计算c[i]={ 所有标记为i的data[j]之和}/标记为i的个数;

      (4) 重复(2)(3),直到所有c[i]值的变化小于给定阈值。

三:K-Mean性能评价指标(误差函数)

一种度量k-means算法的聚类效果的指标是误差平方和SSE(Sum of Squared-Error)。

 

 

符号

描述

x

样本

Ci

第i个簇

ci

簇Ci的质心(该簇的均值)

mi

第i个簇的样本个数

K

簇的个数

SSE表示数据样本与它所属的簇中心之间的距离(差异度)平方之和。直观的来说,SSE越小,表示数据点越接近它们的中心,聚类效果越好。因为对误差取了平方,更加重视那些远离中心的点。

可证明:使簇的SSE最小的质心是均值

 

在聚类算法的性能评价中,还有下面会介绍的ARI指数(Adjusted Rand Index),结果介于[0,1]之间,值越靠近1性能越好。

四:K-Mean算法特点

优点:速度快,简单

      对处理大数据集,该算法保持可伸缩性和高效率

      当簇近似为高斯分布时,它的效果较好。

缺点:最终结果跟初始点选择相关,容易陷入局部最优,需直到k值

k均值算法中k是实现给定的,这个k值的选定是非常难估计的。

k均值的聚类算法需要不断地进行样本分类调整,不断地计算调整后的新的聚类中心,当数据量大的时候,算法开销很大。

k均值是求得局部最优解的算法,所以对于初始化时选取的k个聚类的中心比较敏感,不同点的中心选取策略可能带来不同的聚类结果。比如实际分类5类的情况却只进行了3均值的聚类。

对噪声点和孤立点数据敏感。     

KMeans一般是其他聚类方法的基础算法,如谱聚类。

猜你喜欢

转载自blog.csdn.net/qq_38483094/article/details/99887732
今日推荐