kmeans对自己的图像数据集聚类(及肘部法求最佳K值)

pytorch实现kmeans(自己的图像数据集)

上篇笔记已经介绍了,如何加载自己的图像数据集。(加载数据集: https://blog.csdn.net/hnu_zzt/article/details/84766049 ) 这篇笔记介绍对自己的图像数据集用kmeans聚类。为了方便演示,我的数据集是1000张3×64×64的彩色图片,均放在test文件夹下。只需修改下文件夹路径就可以实现。详细代码和注释如下:

import torch
from torch.utils import data
from PIL import Image
import numpy as np
from torchvision import transforms
from numpy import *


transform = transforms.Compose([
    transforms.ToTensor(),  # 将图片转换为Tensor,归一化至[0,1]
    # transforms.Normalize(mean=[.5, .5, .5], std=[.5, .5, .5])  # 标准化至[-1,1]
])


# 定义自己的数据集合
class FlameSet(data.Dataset):
    def __init__(self, root):
        # 所有图片的绝对路径
        imgs = os.listdir(root)
        self.imgs = [os.path.join(root, k) for k in imgs]
        self.transforms = transform

    def __getitem__(self, index):
        img_path = self.imgs[index]
        pil_img = Image.open(img_path)
        if self.transforms:
            data = self.transforms(pil_img)
        else:
            pil_img = np.asarray(pil_img)
            data = torch.from_numpy(pil_img)
        return data

    def __len__(self):
        return len(self.imgs)


# 计算两个矩阵的距离
def euclDistance(vector1, vector2):
    return sqrt(sum(power(vector2 - vector1, 2)))


# 在样本集中随机选取k个样本点作为初始质心
def initCentroids(dataSet, k):
    numSamples, dim = dataSet.shape  # 矩阵的行数、列数
    centroids = zeros((k, dim))  # 感觉要不要你都可以
    for i in range(k):
        index = int(random.uniform(0, numSamples))  # 随机产生一个浮点数,然后将其转化为int型
        centroids[i, :] = dataSet[index, :]
    return centroids


# k-means cluster
# dataSet为一个矩阵
# k为将dataSet矩阵中的样本分成k个类
def kmeans(dataSet, k):
    numSamples = dataSet.shape[0]  # 读取矩阵dataSet的第一维度的长度,即获得有多少个样本数据
    # first column stores which cluster this sample belongs to,
    # second column stores the error between this sample and its centroid
    clusterAssment = mat(zeros((numSamples, 2)))  # 得到一个N*2的零矩阵
    clusterChanged = True

    ## step 1: init centroids
    centroids = initCentroids(dataSet, k)  # 在样本集中随机选取k个样本点作为初始质心

    while clusterChanged:
        clusterChanged = False
        ## for each sample
        for i in range(numSamples):  # range
            minDist = 100000.0
            minIndex = 0
            ## for each centroid
            ## step 2: find the centroid who is closest
            # 计算每个样本点与质点之间的距离,将其归内到距离最小的那一簇
            for j in range(k):
                distance = euclDistance(centroids[j, :], dataSet[i, :])
                if distance < minDist:
                    minDist = distance
                    minIndex = j

                    ## step 3: update its cluster
            # k个簇里面与第i个样本距离最小的的标号和距离保存在clusterAssment中
            # 若所有的样本不在变化,则退出while循环
            if clusterAssment[i, 0] != minIndex:
                clusterChanged = True
                clusterAssment[i, :] = minIndex, minDist ** 2  # 两个**表示的是minDist的平方

        ## step 4: update centroids
        for j in range(k):
            # clusterAssment[:,0].A==j是找出矩阵clusterAssment中第一列元素中等于j的行的下标,返回的是一个以array的列表,第一个array为等于j的下标
            pointsInCluster = dataSet[nonzero(clusterAssment[:, 0].A == j)[0]]  # 将dataSet矩阵中相对应的样本提取出来
            centroids[j, :] = mean(pointsInCluster, axis=0)  # 计算标注为j的所有样本的平均值

    print('Congratulations, cluster complete!')
    print(clusterAssment)
    return centroids, clusterAssment
#centroids为k个类别,其中保存着每个类别的质心
#clusterAssment为样本的标记,第一列为此样本的类别号,第二列为到此类别质心的距离 

if __name__ == '__main__':
    # 数据预处理
    temp = FlameSet('./test')
    dataSet = np.zeros((1000, 12288))  # 数据集的大小为1000*12288
    # print(dataSet.shape)
    for i in range(1000):  # test中共1000张图片
        arr = temp[i].numpy()  # 将将Tensor张量转化为numpy矩阵
        arr = arr.reshape(12288)  # 将矩阵拉成向量
        dataSet[i][:] = dataSet[i][:] + arr  # 添加到数据集中,每一行表示一张图片信息
    # print(dataSet)
    kmeans(dataSet, 3)

显示结果:
第一列为此样本的类别号,第二列为到此类别质心的距离。
在这里插入图片描述
接下来介绍如何选取较为合适的K值。使用各个簇内的样本点到所在簇质心的距离平方和(SSE)作为性能度量,越小则说明各个类簇越收敛。

# 肘部法求最佳K值
# 使用各个簇内的样本点到所在簇质心的距离平方和(SSE)作为性能度量,越小则说明各个类簇越收敛。
# 将clusterAssment的第二列求和就行
def chooseK(dataSet, i):
    list = []
    for j in range(1, i):
        centroids, clusterAssment = kmeans(dataSet, j)
        sum0 = sum(clusterAssment[:, 1])
        list.append(sum0)
    print(list)
    fig = plt.figure()
    ax = fig.add_subplot(111)
    ax.plot(list)
    plt.show()

指定一个i值,即可能的最大类簇数。然后将类簇数从1开始递增,一直到i,计算出i个SSE。根据数据的潜在模式,当设定的类簇数不断逼近真实类簇数时,SSE呈现快速下降态势,而当设定类簇数超过真实类簇数时,SSE也会继续下降,当下降会迅速趋于缓慢。通过画出K-SSE曲线,找出下降途中的拐点,即可较好的确定K值。
可参考:https://blog.csdn.net/weixin_41548818/article/details/82590817

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/hnu_zzt/article/details/84788131