首页 > 其他分享 >机器学习中的聚类艺术:探索数据的隐秘之美

机器学习中的聚类艺术:探索数据的隐秘之美

时间:2024-09-13 12:52:18浏览次数:3  
标签:隐秘 样本 之美 距离 聚类 属性 高斯分布 度量

一 什么是聚类

聚类是一种经典的无监督学习方法,无监督学习的目标是通过对无标记训练样本的学习,发掘和揭示数据集本身潜在的结构与规律,即不依赖于训练数据集的类标记信息。聚类则是试图将数据集的样本划分为若干个互不相交的类簇,从而每个簇对应一个潜在的类别。

聚类直观上来说是将相似的样本聚在一起,从而形成一个类簇(cluster)。那首先的问题是如何来度量相似性(similarity measure)呢?这便是距离度量,在生活中我们说差别小则相似,对应到多维样本,每个样本可以对应于高维空间中的一个数据点,若它们的距离相近,我们便可以称它们相似。那接着如何来评价聚类结果的好坏呢?这便是性能度量,性能度量为评价聚类结果的好坏提供了一系列有效性指标。

二 距离度量

谈及距离度量,最熟悉的莫过于欧式距离了,从年头一直用到年尾的距离计算公式:即对应属性之间相减的平方和再开根号。度量距离还有其它的很多经典方法,通常它们需要满足一些基本性质:

这里列举几种常见的距离度量方式。

2.1 闵可夫斯基距离

最常用的距离度量方法是**“闵可夫斯基距离”(Minkowski distance)**:

当p=1时,闵可夫斯基距离即曼哈顿距离(Manhattan distance)

当p=2时,闵可夫斯基距离即欧氏距离(Euclidean distance)

2.2 余弦距离

余弦距离以两向量夹角余弦值来反映相似度,取值在 [ 0 , 1 ] [0,1] [0,1]之间,值越大,相似度越大。

d i s t ( X , Y ) = cos ⁡ ( X , Y ) = ∑ i = 1 d x i y i ∑ i = 1 d ( x i ) 2 ∑ i = 1 d ( y i ) 2 dist(X,Y) = \cos (X,Y) = \frac{{\sum\nolimits_{i = 1}^d {{x_i}{y_i}} }}{{\sqrt {\sum\nolimits_{i = 1}^d {{{({x_i})}^2}} } \sqrt {\sum\nolimits_{i = 1}^d {{{({y_i})}^2}} } }} dist(X,Y)=cos(X,Y)=∑i=1d​(xi​)2 ​∑i=1d​(yi​)2 ​∑i=1d​xi​yi​​

2.3 切比雪夫距离

切比雪夫距离是以各维度差值的最大值作为最终的相似度:

d i s t ( X , Y ) = max ⁡ i ( ∣ x i − y i ∣ ) dist(X,Y) = \mathop {\max }\limits_i (|{x_i} - {y_i}|) dist(X,Y)=imax​(∣xi​−yi​∣)

我们知道属性分为两种:连续属性离散属性(有限个取值)。对于连续值的属性,一般都可以被学习器所用,有时会根据具体的情形作相应的预处理,例如:归一化等;而对于离散值的属性,需要作下面进一步的处理:

若属性值之间存在序关系,则可以将其转化为连续值,例如:身高属性“高”“中等”“矮”,可转化为{1, 0.5, 0}。
若属性值之间不存在序关系,则通常将其转化为向量的形式,例如:性别属性“男”“女”,可转化为{(1,0),(0,1)}。

在进行距离度量时,易知连续属性和存在序关系的离散属性都可以直接参与计算,因为它们都可以反映一种程度,我们称其为“有序属性”;而对于不存在序关系的离散属性,我们称其为:“无序属性”,显然无序属性再使用闵可夫斯基距离就行不通了。

对于无序属性,我们一般采用VDM进行距离的计算,例如:对于离散属性的两个取值a和b,定义:

于是,在计算两个样本之间的距离时,我们可以将闵可夫斯基距离和VDM混合在一起进行计算:

若我们定义的距离计算方法是用来度量相似性,例如下面将要讨论的聚类问题,即距离越小,相似性越大,反之距离越大,相似性越小。这时距离的度量方法并不一定需要满足前面所说的四个基本性质,这样的方法称为:非度量距离(non-metric distance)

三 性能度量

由于聚类算法不依赖于样本的真实类标,就不能像监督学习的分类那般,通过计算分对分错(即精确度或错误率)来评价学习器的好坏或作为学习过程中的优化目标。一般聚类有两类性能度量指标:外部指标内部指标

3.1 外部指标

即将聚类结果与某个参考模型的结果进行比较,以参考模型的输出作为标准,来评价聚类好坏。假设聚类给出的结果为λ,参考模型给出的结果是λ*,则我们将样本进行两两配对,定义:

显然a和b代表着聚类结果好坏的正能量,b和c则表示参考结果和聚类结果相矛盾,基于这四个值可以导出以下常用的外部评价指标:

3.2 内部指标

内部指标即不依赖任何外部模型,直接对聚类的结果进行评估,聚类的目的是想将那些相似的样本尽可能聚在一起,不相似的样本尽可能分开,直观来说:簇内高内聚紧紧抱团,簇间低耦合老死不相往来。定义:

基于上面的四个距离,可以导出下面这些常用的内部评价指标:

四 原型聚类-主流聚类算法解析

原型聚类即“基于原型的聚类”(prototype-based clustering),原型表示模板的意思,就是通过参考一个模板向量或模板分布的方式来完成聚类的过程,常见的K-Means便是基于簇中心来实现聚类,混合高斯聚类则是基于簇分布来实现聚类。

4.1 K-Means

K-Means的思想十分简单,首先随机指定类中心,根据样本与类中心的远近划分类簇,接着重新计算类中心,迭代直至收敛。但是其中迭代的过程并不是主观地想象得出,事实上,若将样本的类别看做为“隐变量”(latent variable),类中心看作样本的分布参数,这一过程正是通过EM算法的两步走策略而计算出,其根本的目的是为了最小化平方误差函数E:

K-Means的算法流程如下所示:

4.2 学习向量量化(LVQ)

LVQ也是基于原型的聚类算法,与K-Means不同的是,LVQ使用样本真实类标记辅助聚类,首先LVQ根据样本的类标记,从各类中分别随机选出一个样本作为该类簇的原型,从而组成了一个原型特征向量组,接着从样本集中随机挑选一个样本,计算其与原型向量组中每个向量的距离,并选取距离最小的原型向量所在的类簇作为它的划分结果,再与真实类标比较。

若划分结果正确,则对应原型向量向这个样本靠近一些
若划分结果不正确,则对应原型向量向这个样本远离一些

LVQ算法的流程如下所示:

4.3 高斯混合聚类

现在可以看出K-Means与LVQ都试图以类中心作为原型指导聚类,高斯混合聚类则采用高斯分布来描述原型。现假设每个类簇中的样本都服从一个多维高斯分布,那么空间中的样本可以看作由k个多维高斯分布混合而成

对于多维高斯分布,其概率密度函数如下所示:

其中u表示均值向量,∑表示协方差矩阵,可以看出一个多维高斯分布完全由这两个参数所确定。接着定义高斯混合分布为:

α称为混合系数,这样空间中样本的采集过程则可以抽象为:(1)先选择一个类簇(高斯分布),(2)再根据对应高斯分布的密度函数进行采样,这时候贝叶斯公式又能大展身手了:

此时只需要选择PM最大时的类簇并将该样本划分到其中,看到这里很容易发现:这和那个传说中的贝叶斯分类不是神似吗,都是通过贝叶斯公式展开,然后计算类先验概率和类条件概率。但遗憾的是:这里没有真实类标信息,对于类条件概率,并不能像贝叶斯分类那样通过最大似然法美好地计算出来,因为这里的样本可能属于所有的类簇,这里的似然函数变为:

可以看出:简单的最大似然法根本无法求出所有的参数,这样PM也就没法计算。这里就要召唤出之前的EM大法,首先对高斯分布的参数及混合系数进行随机初始化,计算出各个PM(即γji,第i个样本属于j类),再最大化似然函数(即LL(D)分别对α、u和∑求偏导 ),对参数进行迭代更新

高斯混合聚类的算法流程如下图所示:

4.4 密度聚类

密度聚类则是基于密度的聚类,它从样本分布的角度来考察样本之间的可连接性,并基于可连接性(密度可达)不断拓展疆域(类簇)。其中最著名的便是DBSCAN算法,首先定义以下概念:

简单来理解DBSCAN便是:找出一个核心对象所有密度可达的样本集合形成簇。首先从数据集中任选一个核心对象A,找出所有A密度可达的样本集合,将这些样本形成一个密度相连的类簇,直到所有的核心对象都遍历完。DBSCAN算法的流程如下图所示:

4.5 层次聚类

层次聚类是一种基于树形结构的聚类方法,常用的是自底向上的结合策略(AGNES算法)。假设有N个待聚类的样本,其基本步骤是:

1.初始化–>把每个样本归为一类,计算每两个类之间的距离,也就是样本与样本之间的相似度;
2.寻找各个类之间最近的两个类,把他们归为一类(这样类的总数就少了一个);
3.重新计算新生成的这个类与各个旧类之间的相似度
4.重复2和3直到所有样本点都归为一类,结束。

可以看出其中最关键的一步就是计算两个类簇的相似度,这里有多种度量方法:

* 单链接(single-linkage):取类间最小距离。

* 全链接(complete-linkage):取类间最大距离

* 均链接(average-linkage):取类间两两的平均距离

很容易看出:单链接的包容性极强,稍微有点暧昧就当做是自己人了,全链接则是坚持到底,只要存在缺点就坚决不合并,均连接则是从全局出发顾全大局。层次聚类法的算法流程如下所示:

标签:隐秘,样本,之美,距离,聚类,属性,高斯分布,度量
From: https://blog.csdn.net/u011026329/article/details/142078845

相关文章

  • 【大数据】聚类算法
    目录一、聚类算法概述二、聚类算法优缺点和改进2.1 聚类算法优点2.2聚类算法缺点2.3 聚类算法改进三、聚类算法实现3.1 聚类算法C语言实现3.2 聚类算法JAVA实现3.3 聚类算法python实现四、聚类算法应用五、聚类算法发展趋势一、聚类算法概述      ......
  • TensorFlow深度学习框架改进K-means、SOM自组织映射聚类算法及上海招生政策影响分析研
    全文链接:https://tecdat.cn/?p=37652 原文出处:拓端数据部落公众号 分析师:ChenZhang 在教育政策研究领域,准确评估政策对不同区域和学生群体的影响至关重要。2021年上海市出台的《上海市初中学业水平考试实施办法》对招生政策进行了调整,其中名额分配综合评价模块的变化尤为......
  • 聚类算法 0基础小白也能懂(附代码)
    聚类算法0基础小白也能懂(附代码)原文链接啥是聚类算法聚类(Clustering)是最常见的无监督学习算法,它指的是按照某个特定标准(如距离)把一个数据集分割成不同的类或簇,使得同一个簇内的数据对象的相似性尽可能大,同时不在同一个簇中的数据对象的差异性也尽可能地大。也即聚类后同一类......
  • (Matlab实现)K-means算法及最佳聚类数目的确定
      目录摘要:1.K-means算法2.Calinski-HarabaszCriterion(卡林斯基-哈拉巴斯指标,CH值)3.Davies-BouldinCriterion(戴维斯-博尔丁指标,DB值)4.GapValue(Gap值)5.SilhouetteCoefficient(轮廓系数)6.基于Matlab的K-means聚类及最佳聚类数选取结果:各种指标评价图像:K-means聚类......
  • 编码规范&阅《数学之美》有感
    作为计算机专业的大学生在深入学习编写代码前,我认为应当了解一些大公司内部编码规范的核心要素,遵守这些编码规范不仅有助于提高代码质量,而且也是专业发展的必要条件。通过这些规范,可以更好地帮助自己打牢基础,养成良好的编程习惯,同时也为日后进入职场做准备,以适应不同公司的编程文......
  • 信息的度量-读《数学之美》第六章有感
    信息的度量-读《数学之美》第六章有感  《数学之美》是一本很通俗易懂的介绍数学和算法在生活中的应用的一本书。今天着重来谈一谈他的第六章。  在看到目录时我一眼便看到了他的第六章所提到的信息熵,因为我在学校的大数据可视化的通识课上了解过这一概念。老师当时举了个谈......
  • 聚类分析 | BIRCH(Python)
    BIRCH聚类(BIRCH是平衡迭代减少的缩写,聚类使用层次结构)包括构造一个树状结构,从中提取聚类质心。birch聚类fromnumpyimportuniquefromnumpyimportwherefromsklearn.datasetsimportmake_classificationfromsklearn.clusterimportBirchfrommatplotlibim......
  • 聚类分析 | K均值(Python)
    K-均值聚类可以是最常见的聚类算法,并涉及向群集分配示例,以尽量减少每个群集内的方差。k-means聚类fromnumpyimportuniquefromnumpyimportwherefromsklearn.datasetsimportmake_classificationfromsklearn.clusterimportKMeansfrommatplotlibimportpyp......
  • 中秋之美——html5+css+js制作中秋网页
    中秋之美——html5+css+js制作中秋网页一、前言二、功能展示三、系统实现四、其它五、源码下载一、前言八月十五,秋已过半,是为中秋。“但愿人长久,千里共婵娟”,中秋时节,气温已凉未寒,天高气爽,月朗中天,正是观赏月亮的最佳时令。古人把圆月视为团圆的象征,因此,又称八月十......
  • 中秋之美——html5+css+js制作中秋网页——网页设计课程大作业
    中秋之美——html5+css+js制作中秋网页——网页设计课程大作业一、前言二、功能展示三、系统实现四、其它五、源码下载一、前言八月十五,秋已过半,是为中秋。“但愿人长久,千里共婵娟”,中秋时节,气温已凉未寒,天高气爽,月朗中天,正是观赏月亮的最佳时令。古人把圆月视为团......