机器学习:图文详解K-均值聚类(K-means)算法(附Python实现)

navicat

目录

windows 10

0 写在前面

机器学习强基计划聚焦深度和广度,加深对机器学习模型的理解与应用。“深”在详细推导算法模型背后的数学原理;“广”在分析多个机器学习模型:决策树、支持向量机、贝叶斯与马尔科夫决策、强化学习等。强基计划实现从理论到实践的全面覆盖,由本人亲自从底层编写、测试与文章配套的各个经典算法,不依赖于现有库,可以大大加深对算法的理解。

多路摄像头算法部署

🚀详情:机器学习强基计划(附几十种经典模型源码)

性能分析


本文的目标是基于K-均值聚类原理实现下面的可视化效果

快捷键

在这里插入图片描述

下一代

1 什么是聚类?

聚类(clustering)无监督学习(unsupervised learning)中研究最多、应用最广的技术之一,其基本思路是通过对无标记训练样本的学习来揭示数据内在的聚合性质与规律

mysql 索引使用与优化

聚类试图将数据集中的样本划分为若干个通常是不相交的子集,每个子集称为一个簇(cluster),每个簇可能对应于一些潜在的概念(类别),但这些概念的语义需由开发者来把握和命名。

外观模式

形式化地,假定训练集

X

=

{

x

1

,

x

2

,


,

x

m

}

X=\left\{ \boldsymbol{x}_1,\boldsymbol{x}_2,\cdots ,\boldsymbol{x}_m \right\}

X={x1,x2,,xm}包含

m

m

m个无标记样本,每个样本

x

i

=

{

x

i

1

,

x

i

2

,


,

x

i

n

}

\boldsymbol{x}_i=\left\{ x_{i1},x_{i2},\cdots ,x_{in} \right\}

xi={xi1,xi2,,xin}是一个

n

n

n维征向量。

决策树

聚类算法的目标是将训练集

X

X

X划分为

k

k

k个不相交的簇

C

=

{

C

1

,

C

2

,


,

C

k

}

\mathcal{C} =\left\{ C_1,C_2,\cdots ,C_k \right\}

C={C1,C2,,Ck},其中

C

l

C

l

=

C_{l'}\cap C_l=\oslash

ClCl=

X

=

l

=

1

k

C

l

X=\bigcup\nolimits_{l=1}^k{C_l}

X=l=1kCl,每个簇都对应一个未赋语义的簇标记(cluster label),记为

λ

j

{

1

,

2

,


,

k

}

\lambda _j\in \left\{ 1,2,\cdots ,k \right\}

λj{1,2,,k},聚类的结果可用包含

m

m

m个元素的簇标记向量表示

λ

=

[

λ

1

λ

2

λ

m

]

T

\boldsymbol{\lambda }=\left[ \begin{matrix} \lambda _1& \lambda _2& \cdots& \lambda _m\\\end{matrix} \right] ^T

λ=[λ1λ2λm]T

pycharm开发工具配置

聚类既能作为一个单独过程,用于找寻数据内在的聚合结构,也可作为分类等其他学习任务的前驱过程。

保存图片

例1 在一些商业应用中需对用户类型进行判别,但商家往往不知道用户可以分为哪些类型,此时可先对用户数据集进行聚类,根据聚类结果将每个簇定义为一种类型用户,然后再基于这些类训练分类模型,用于判别新用户的类型。

软件设计

2 K均值聚类原理

2.1 原型聚类

原型聚类(prototype-based clustering)的核心原理是通过参考原型向量(模板向量)或原型分布(模板分布)的方式来完成聚类过程

霍夫曼树

在学得一组原型向量

{

p

1

,

p

2

,


,

p

k

}

\left\{ \boldsymbol{p}_1,\boldsymbol{p}_2,\cdots ,\boldsymbol{p}_k \right\}

{p1,p2,,pk}后即可实现对样本空间的簇划分。对任意样本

x

\boldsymbol{x}

x ,将被划入与其距离最近的原型向量

p

i

\boldsymbol{p}_i

pi所代表的簇中,该样本与

p

i

\boldsymbol{p}_i

pi的距离不大于它与其他原型向量的距离。

数学建模

2.2 K-means算法流程

K-均值聚类(K-means)属于原型聚类的一种,它以簇均值向量为模板向量,通过贪心策略迭代划分簇。算法流程如下

props属性详解

在这里插入图片描述

瑞吉外卖

3 Python实现

3.1 算法复现

  • 初始化均值向量
    self.kVector = [copy.deepcopy(self.dataSet[random.randint(0, self.m - 1)]) for i in range(self.k)]
    
  • 更新簇划分
    t = 0
    while t < self.T:
       # 初始化簇
       kCluster = {i: [] for i in range(self.k)}
       # 更新簇划分
       for i in range(self.m):
           # 样本与各均值向量的距离
           d = [self.__dist(self.dataSet[i], self.kVector[j]) for j in range(self.k)]
           # 以最小距离对应的簇号为簇标记
           label = d.index(min(d))
           # 更新簇划分
           kCluster[label].append(self.dataSet[i])
    
  • 更新均值向量
    # 更新均值向量
    kVectorNew = [sum(kCluster[i]) / len(kCluster[i]) for i in range(self.k)]
    # 计算均值向量更新幅度
    delta = [sum(kVectorNew[i] - self.kVector[i]) for i in range(self.k)]
    if sum(delta) < 0.01:
        break
    else:
        self.kVector = kVectorNew
    t = t + 1
    

3.2 可视化

for i in kCluster:
    x = np.array(kCluster[i])[:,0]
    y = np.array(kCluster[i])[:,1]
    plt.scatter(x,y)
#  绘制均值向量点的位置
xMean = np.array(self.kVector)[:,0]
yMean = np.array(self.kVector)[:,1]
plt.scatter(xMean, yMean, marker='+')
plt.title("k-means")
plt.show()

这里我们额外作出了均值向量的位置,用+表示。

Linux命令

在这里插入图片描述
可以验证,每个簇内样本到均值向量的距离都小于到其他簇均值向量的距离。

方法重写

本文完整工程代码联系下方博主名片获取

结构重参数化


🔥 更多精彩专栏

stringify

👇源码获取 · 技术交流 · 抱团学习 · 咨询分享 请联系👇

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注