首页 > 其他分享 >聚类分析方法(一)

聚类分析方法(一)

时间:2024-07-07 18:56:53浏览次数:11  
标签:10 Ci 算法 cdots 中心点 聚类 方法 聚类分析

目录


  聚类分析 (clustering analysis) 是数据挖掘研究最为活跃、内容最为丰富的领域之一,其目的是通过对数据的深度分析,将一个数据集拆分成若干个子集 (每个子集称为一个簇,cluster),使得同一个簇中数据对象 (也称数据点) 之间的距离很近或相似度较高,而不同簇中的对象之间距离很远或相似度较低。

一、聚类分析原理

(一)聚类分析概述

  聚类分析 (clustering analysis) 就是根据某种相似性度量标准,将一个没有类别标号的数据集 S S S (表10-1) 直接拆分成若干个子集 C i ( i = 1 , 2 , ⋯   , k ; k ≤ n ) C_i (i=1,2, \cdots,k; k≤n) Ci​(i=1,2,⋯,k;k≤n),并使每个子集内部数据对象之间相似度很高,而不同子集的对象之间不相似或相似度很低。每个子集 C i C_i Ci​ 称为一个簇,所有簇构成的集合 C = { C 1 , C 2 , ⋯   , C k } C=\{C_1 ,C_2, \cdots,C_k\} C={C1​,C2​,⋯,Ck​} 称为数据集 S S S 的一个聚类。

在这里插入图片描述
  聚类分析与分类规则挖掘不同,前者是一种探索性的分析过程。聚类分析的数据集 S S S 中没有已知的先验知识 (即对象的类别标号) 来指导,它要求直接从 S S S 本身出发,依据某种相似度标准为 S S S 的每个对象给出类别标号。因此,聚类分析也称为无监督的分类 (unsupervised classification)。对于同一个数据集,就算使用同一个聚类算法,如果选择了不同的“相似度”标准,也常常会得到不同的聚类结果。
  聚类分析作为数据挖掘的一个热门研究领域,在帮助人们获取潜在的、有价值的信息并过滤掉无用的信息方面起到了至关重要的作用。
  目前,数据聚类技术在许多领域都已得到实际应用。在生物学的研究中,科学家们可以通过聚类算法来分析大量的遗传信息,从而发现哪些基因组具有类似的功能,以此获得对种群的认识;在信息检索方面,聚类算法可以将搜索引擎返回的结果划分为若干个类,从每个类中获取查询的某个特定方面,从而产生一个类似树状的层次结构来帮助用户进一步探索查询结果;在医学领域的研究中,一种疾病通常会有多个变种,而聚类分析可以根据患者的症状描述来确定患者的疾病类型,以此提高诊断效率和治疗效果;在气象领域,聚类已经被用来发现对气候具有明显影响的海洋大气压力模式;在电子商务中,聚类分析可以对用户群体进行细分,并针对不同类型的用户进行不同的营销策略,以提升销售额。

(二)聚类的数学定义

定义10-1 设有数据集 S = { X 1 , X 2 , ⋯   , X n } S=\{X_1 ,X_2, \cdots,X_n\} S={X1​,X2​,⋯,Xn​},其中 X i X_i Xi​ 为 d d d 维向量 (表10-1), s ( X , Y ) s(X,Y) s(X,Y) 为定义在 S S S 上的相似度函数。若利用函数 s ( X , Y ) s(X,Y) s(X,Y) 可将 S S S 拆分成 k k k 个子集 C i C_i Ci​,并记 C = { C 1 , C 2 , ⋯   , C k } ( k ≤ n ) C=\{C_1 ,C_2, \cdots,C_k\}(k≤n) C={C1​,C2​,⋯,Ck​}(k≤n),使 C C C 满足以下条件:
(1) C i ≠ ∅ ( i = 1 , 2 , ⋯   , k ) C_i ≠ \varnothing (i=1 ,2, \cdots,k) Ci​=∅(i=1,2,⋯,k)                                           (10-1)
(2) C 1 ∪ C 2 ∪ ⋯ ∪ C k = S C_1∪ C_2∪\cdots∪C_k =S C1​∪C2​∪⋯∪Ck​=S                                          (10-2)
(3) C i ∩ C j = ∅ ( i = 1 , 2 , ⋯   , k ; i ≠ j ) C_i∩C_j= \varnothing (i=1 ,2, \cdots,k; i≠j) Ci​∩Cj​=∅(i=1,2,⋯,k;i=j)                                     (10-3)
(4) ∀ X , Y ∈ C i , s ( X , Y ) = 1 \forall X,Y\in C_i, s(X,Y)=1 ∀X,Y∈Ci​,s(X,Y)=1 或接近 1 1 1; ∀ X ∈ C i \forall X\in C_i ∀X∈Ci​ 和 Y ∈ C j ( i ≠ j ) , s ( X , Y ) = 0 Y\in C_j(i≠j) ,s(X,Y)=0 Y∈Cj​(i=j),s(X,Y)=0 或接近 0 0 0;则称 C i C_i Ci​ 为 S S S 由 s ( X , Y ) s(X,Y) s(X,Y) 生成的一个簇 (cluster),简称簇 C i ( i = 1 , 2 , … ⋯   , k ) C_i (i=1 ,2, …\cdots,k) Ci​(i=1,2,…⋯,k);同时,称 C C C 为 S S S 由 s ( X , Y ) s(X,Y) s(X,Y) 生成的一个划分聚类 (partitional clustering),简称 C C C 为 S S S 的划分聚类,或称为互斥 (exclusive) 的聚类。

(2)+ 如果将公式 (10-2) 改为
C 1 ∪ C 2 ∪ ⋯ ∪ C k ⊂ S (10-4) C_1∪C_2∪\cdots∪C_k \subset S\tag{10-4} C1​∪C2​∪⋯∪Ck​⊂S(10-4) 而其它假设条件都不变,则称 C = { C 1 , C 2 , ⋯   , C k } C=\{C_1 ,C_2, \cdots,C_k\} C={C1​,C2​,⋯,Ck​} 为 S S S 的部分聚类 (partial clustering)。这时, S S S 中的某些对象没有分配到任何簇中。

(2)++ 如果将定义10-1中的公式 (10-2) 改为
C 1 ∪ C 2 ∪ ⋯ ∪ C k ⊆ S (10-5) C_1∪C_2∪\cdots∪C_k\subseteq S \tag{10-5} C1​∪C2​∪⋯∪Ck​⊆S(10-5) 且至少存在两个簇 C i ∩ C j ≠ ∅ C_i∩C_j≠\varnothing Ci​∩Cj​=∅,而其它假设不变,则称 C = { C 1 , C 2 , ⋯   , C k } C=\{C_1 ,C_2, \cdots,C_k\} C={C1​,C2​,⋯,Ck​} 为 S S S 的非互斥聚类 (non-exclusive clustering),也称 C C C 为重叠聚类 (overlapping clustering)。

  相似度函数 s ( X , Y ) s(X,Y) s(X,Y),通常可使用之前介绍的某种相似度,但一般都需要根据实际数据集 S S S 的属性类型来选择或确定;可选择距离或相异度 d ( X , Y ) d(X,Y) d(X,Y) 来作为相似性的度量标准,这时只要将定义10-1中的第(4)条改为“对 X , Y ∈ C i , d ( X , Y ) = 0 X,Y\in C_i, d(X,Y)=0 X,Y∈Ci​,d(X,Y)=0 或接近 0 0 0,对 X ∈ C i X\in C_i X∈Ci​ 和 Y ∈ C j ( i ≠ j ) , d ( X , Y ) Y\in C_j(i≠j) ,d(X,Y) Y∈Cj​(i=j),d(X,Y) 很大”即可。还可以定义其它广义的“相似度”,比如簇内点的密度,或要求每个簇构成某种形状等。聚类分析不仅与数据集 S S S 有关,而且与所选择的相似性度量有关。
  在实际应用中,对于一个给定的数据集 S S S,如何选择恰当的相似性度量却没有普遍适用的标准,仍是一个困难而富有挑战性的问题。

例10-1 假设数据集 S S S 有20个点,其在平面上位置如图10-1(1)所示。我们可将数据集 S S S 分别交给甲、乙、丙3个同学,希望他们自己选择恰当的相似度标准对 S S S 进行聚类。

在这里插入图片描述
  虽然三个同学的聚类结果不一样,但老师在评分时给三个同学都是满分,因为都是在各自选定的相似度标准下正确的聚类结果。

(三)簇的常见类型

  聚类分析旨在发现“有用”或“有意义”的簇,这里的有用性或意义完全由数据挖掘目的来决定。虽然实际存在有很多种类的簇,但数据挖掘的实践表明,无论多么奇怪的簇在实际应用中都可能是有用的。
  簇的类型一般可从簇的形状和簇间关系来划分。

1、簇的形状

  从簇的形状主要分为类球状 (凸形) 的簇,非球状的簇两种类型。
  (1)类球状的簇 (图10-2),一般是聚类算法使用距离函数所产生的簇,而非球状的簇,通常由基于密度或基于原型的聚类算法获得的簇。

在这里插入图片描述
  (2)非球状的簇,通常由基于密度或基于原型的聚类算法获得的簇。

在这里插入图片描述
2、簇间关系

1)明显分离的簇

  簇中每个数据对象到同簇中其它对象的距离,比到不同簇中任意对象的距离更近;下图中不同簇中任意两点之间的距离都大于簇内任意两点之间的距离。当然,明显分离的簇不必是球形的,也可以是其它任意的形状。

在这里插入图片描述
2)基于原型的簇

  所谓原型其实就是簇中最具代表性的点。对连续属性的数据,簇的原型通常就是质心,即簇中所有点的平均值。当数据包括分类属性时,簇的原型通常是中心点,即簇中最有代表性的点。对于许多数据类型,原型可以视为最靠近中心的点,因此,通常把基于原型的簇看作基于中心的簇 (center-based cluster),下图就是一个基于中心的簇的例子。

在这里插入图片描述
3)基于连片的簇 (contiguity-based cluster)

  簇中两个相邻对象的距离都在指定的阈值之内即将其归为同一个簇。当簇的形状不规则或缠绕,且数据集没有噪声时,用这种方式来定义簇会收到很好的聚类效果。如果存在噪声,其聚类效果就不一定理想。图中的哑铃状簇,就是由线状 (噪声) 连接两个球状簇形成的一个簇。

在这里插入图片描述
4)基于密度的簇 (density-based cluster)

  基于密度的簇由对象间相对稠密的区域组成,且其周围是低密度的区域。一般通过指定簇中任何一个对象周围区域内最少点数 (即密度) 来实现。下图有3个基于密度的簇,它们是在哑铃状图中添加了一些低密度的对象创建的。由于增加了低密度噪声点的缘故,原先的S状、线状簇不能形成较稠密的簇而被当作噪声排斥在外。当簇的形状不规则或互相盘绕,并且有噪声和离群点时,使用基于密度的簇定义通常得到较理想的聚类效果。

在这里插入图片描述
5)基于概念的簇

  即具有某种“共同性质”的数据对象集合。比如,离相同的质心或中心点最近,或组成三角形、梯形,或圆环状 (重叠聚类) 等。

在这里插入图片描述

(四)聚类框架及性能要求

算法10-1 聚类算法框架
输入:数据集 S S S,相似度 s s s,以及簇的个数 k k k;
输出:聚类 C = { C 1 , C 2 , ⋯   , C k } C=\{C_1,C_2,\cdots,C_k\} C={C1​,C2​,⋯,Ck​};
(1)任意产生 S S S的一个聚类 C C C
(2)以 s s s为相似性标准对 S S S循环更新聚类 C C C的簇 C 1 , C 2 , ⋯   , C k C_1,C_2,\cdots,C_k C1​,C2​,⋯,Ck​,直到满意为止。

其中,“满意”的标准一般是簇内对象之间的距离很近,簇与簇之间的距离很远等相似度或相异度。

  1. 对数据集的可伸缩能力:不仅在小数据集上聚类效果好,而且在大数据集上的聚类也要效率高、效果好。
  2. 处理混合属性的能力:能够处理同时含有二元、分类、序数和数值等属性的数据集。
  3. 发现任意形状簇的能力:不仅能够发现凸型球状的、大小和密度相近的簇,也能够发现一些特殊形状的簇。
  4. 聚类参数自适应能力:对用户输入初始参数,如簇的个数 k k k,密度半径 ε \varepsilon ε 和最少点数 MinPts 等具有自适应能力,可以减少甚至克服初始参数对聚类的结果影响,以保障聚类的质量。
  5. 噪声数据的处理能力:以减轻或者消除“噪声”数据影响,提高聚类结果的质量。
  6. 数据输入顺序的适应能力:即适应数据集任意输入顺序的能力,有助于提高聚类结果的稳定性。
  7. 处理高维数据的能力:不仅能高效地处理2-3维的数据集,对高维数据 (几十个甚至更多的属性) 也能高效运行。
  8. 带约束条件的聚类能力:即聚类算法不仅能满足客户特定的约束条件,又能得到具有良好聚类特性的簇。

  值得注意的是,在实际的算法设计中,要求一个聚类算法同时具备以上所有能力是不现实的,如果能够同时具备其中的3-4个能力已算是相对优质的算法了。

(五)簇的距离

  数据集 S S S 的一个聚类 C = { C 1 , C 2 , ⋯   , C k } C=\{C_1,C_2,\cdots,C_k\} C={C1​,C2​,⋯,Ck​} 的质量,包括每个簇 C i C_i Ci​ 的质量和 C C C 的总体质量。前者用簇内距离来刻画,后者用簇间距离来衡量。

1、簇内距离

1)簇的直径

  簇 C i C_i Ci​ 中任意两个对象之间欧氏距离的最大者,也称为簇外径,并记作
Φ ( C i ) = m a x { d ( X , Y ) ∣ X , Y ∈ C i } (10-6) \Phi(C_i)=max\{d(X,Y) | X,Y\in C_i\}\tag{10-6} Φ(Ci​)=max{d(X,Y)∣X,Y∈Ci​}(10-6) 2)簇的内径

  簇 C i C_i Ci​ 中任意两个对象之间欧氏距离的最小者,并记作
ϕ ( C i ) = m i n { d ( X , Y ) ∣ X , Y ∈ C i } (10-7) \phi(C_i)=min\{d(X,Y) | X,Y\in C_i\}\tag{10-7} ϕ(Ci​)=min{d(X,Y)∣X,Y∈Ci​}(10-7)3)簇的平均距离

  簇 C i C_i Ci​ 中任意两个对象之间欧氏距离之和与 C ∣ C i ∣ 2 C i C^2_{|C_i|}C_i C∣Ci​∣2​Ci​ 中元素个数取2的组合数比值,并记作
d a ( C i ) = 1 C ∣ C i ∣ 2 ∑ X , Y ∈ C i d ( X , Y ) (10-8) d_a(C_i)=\frac{1}{C^2_{|C_i|}}\sum_{X,Y\in C_i}d(X,Y)\tag{10-8} da​(Ci​)=C∣Ci​∣2​1​X,Y∈Ci​∑​d(X,Y)(10-8) 4)簇的中心距离和

  设 X ‾ i \overline{X}_i Xi​ 为簇 C i C_i Ci​ 的中心点,簇中每个点到中心点的距离之和,并记作
d σ = ∑ X ∈ C i d ( X , X ‾ i ) (10-9) d_{\sigma}=\sum_{X\in C_i}d(X,\overline{X}_i)\tag{10-9} dσ​=X∈Ci​∑​d(X,Xi​)(10-9)

2、簇间距离

  设有两个簇 C i C_i Ci​ 和 C j C_j Cj​,且对于任意 X ∈ C i X\in C_i X∈Ci​, Y ∈ C j Y\in C_j Y∈Cj​,其距离为 d ( X , Y ) d(X,Y) d(X,Y),则两个簇之间的距离 d ( C i , C j ) d(C_i, C_j) d(Ci​,Cj​),一般可采用以下几种方式来定义。

1)簇间最小距离

  以两个簇中任意两个元素距离的最小者 (smallest),即
d s ( C i , C j ) = m i n { d ( X , Y ) ∣ X ∈ C i , Y ∈ C j } (10-10) d_s(C_i,C_j)=min\{d(X,Y) | X\in C_i,Y\in C_j\}\tag{10-10} ds​(Ci​,Cj​)=min{d(X,Y)∣X∈Ci​,Y∈Cj​}(10-10) 2)簇间最大距离

  以两个簇中任意两个元素距离的最大者 (largest) ,即
d l ( C i , C j ) = m a x { d ( X , Y ) ∣ X ∈ C i , Y ∈ C j } (10-11) d_l(C_i,C_j)=max\{d(X,Y) | X\in C_i,Y\in C_j\}\tag{10-11} dl​(Ci​,Cj​)=max{d(X,Y)∣X∈Ci​,Y∈Cj​}(10-11) 3)簇间中心距离

  以两个簇 C i C_i Ci​ 和 C j C_j Cj​ 的中心点 X ‾ i \overline{X}_i Xi​ 和 X ‾ j \overline{X}_j Xj​ 之间的距离作为两个簇之间的距离度量,即
d c ( C i , C j ) = d ( X ‾ i , X ‾ j ) (10-12) d_c(C_i,C_j)=d(\overline{X}_i,\overline{X}_j)\tag{10-12} dc​(Ci​,Cj​)=d(Xi​,Xj​)(10-12) 其中 C i C_i Ci​ 的中心定义为
X ‾ i = 1 ∣ C i ∣ ∑ X ∈ C i X (10-13) \overline{X}_i=\frac{1}{|C_i|}\sum_{X\in C_i}X\tag{10-13} Xi​=∣Ci​∣1​X∈Ci​∑​X(10-13) 簇间中心距离也称为均值距离。值得注意的是,簇中心常常不是该簇中的一个对象 (虚拟对象)。

4)簇间平均距离

  以两个簇中任意两个元素距离的平均值作为两个簇之间的一种距离度量,即
d a ( C i , C j ) = 1 ∣ C i ∣ ∣ C j ∣ ∑ X ∈ C i ∑ X ∈ C j d ( X , Y ) (10-14) d_a(C_i,C_j)=\frac{1}{|C_i||C_j|}\sum_{X\in C_i}\sum_{X\in C_j}d(X,Y)\tag{10-14} da​(Ci​,Cj​)=∣Ci​∣∣Cj​∣1​X∈Ci​∑​X∈Cj​∑​d(X,Y)(10-14) 实际应用中可以用 d ( X , Y ) 2 d(X,Y)^2 d(X,Y)2 替换 d ( X , Y ) d(X,Y) d(X,Y)。

5)离差距离

  令簇的中心距离平方和记作
r 2 ( C i ) = ∑ X ∈ C i d ( X , X ‾ i ) 2 (10-15) r^2(C_i)=\sum_{X\in C_i}d(X,\overline{X}_i)^2\tag{10-15} r2(Ci​)=X∈Ci​∑​d(X,Xi​)2(10-15) 对于任意两个簇 C i C_i Ci​, C j C_j Cj​,如果令 C i + j = C i ∪ C j C_{i+j}=C_i\cup C_j Ci+j​=Ci​∪Cj​,则簇 C i C_i Ci​ 与簇 C j C_j Cj​ 之间的平方和离差定义为
d 2 ( C i , C j ) = r 2 ( C i + j ) − r 2 ( C i ) − r 2 ( C j ) (10-16) d^2(C_i,C_j)=r^2(C_{i+j})-r^2(C_i)-r^2(C_j)\tag{10-16} d2(Ci​,Cj​)=r2(Ci+j​)−r2(Ci​)−r2(Cj​)(10-16) 并简称 d ( C i , C j ) d(C_i,C_j) d(Ci​,Cj​) 为簇 C i C_i Ci​ 与 C j C_j Cj​ 的离差距离。

二、划分聚类算法

(一)划分聚类框架

  由定义10-1可知,数据集 S S S 的划分聚类 C = { C 1 , C 2 , ⋯   , C k } C=\{C_1,C_2,\cdots,C_k\} C={C1​,C2​,⋯,Ck​} 有两个特点:
(1)每个簇至少包括一个数据对象;
(2)每个数据对象属于且仅仅属于一个簇;
将聚类算法框架10-1具体化,可得划分聚类算法框架,如下。

算法10-2:划分聚类算法框架
输入:数据对象集 S S S和正整数 k k k
输出:“好”的划分聚类 C C C
(1)生成初始划分聚类 C ( 0 ) = { C 1 , C 2 , ⋯   , C k } C^{(0)}=\{C_1,C_2,\cdots,C_k\} C(0)={C1​,C2​,⋯,Ck​}
(2)REPEAT
(3)依照某种评价函数 f f f改变 C ( i ) C^{(i)} C(i),使新划分聚类 C ( i + 1 ) C^{(i+1)} C(i+1)比 C ( i ) C^{(i)} C(i)更好
(4)UNTIL C ( i + 1 ) C^{(i+1)} C(i+1)没有改变为止
(5)将 C ( i + 1 ) C^{(i+1)} C(i+1)作为聚类 C C C输出

(二)划分聚类的质量

1、聚类C的簇内差异

  设聚类 C = { C 1 , C 2 , ⋯   , C k } C=\{C_1,C_2,\cdots,C_k\} C={C1​,C2​,⋯,Ck​},则它的簇内差异可选择某种距离函数,通过计算簇内每个对象到其中心点距离的平方和来表示,即聚类 C C C 的簇内差异定义为
w ( C ) = ∑ i = 1 k w ( C i ) = ∑ i = 1 k ∑ X ∈ C i d ( X , X ‾ i ) 2 (10-17) w(C)=\sum^{k}_{i=1}w(C_i)=\sum_{i=1}^{k}\sum_{X\in C_i}d(X,\overline{X}_i)^2\tag{10-17} w(C)=i=1∑k​w(Ci​)=i=1∑k​X∈Ci​∑​d(X,Xi​)2(10-17) w ( C ) w(C) w(C) 从总体上评价聚类 C C C 中每个簇的紧凑性,在有些文献资料中也称为误差平方和 (sum of the squared error, SSE),并用 S S E ( C ) SSE(C) SSE(C) 表示。

2、聚类C的簇间差异

  用 C C C 中任意两个簇中心之间的距离平方和来刻画聚类 C C C 的簇间疏远性,并记作
b ( C ) = ∑ 1 ≤ j < i ≤ k d ( X ‾ j , X ‾ i ) 2 (10-18) b(C)=\sum_{1≤j<i≤k}d(\overline{X}_j,\overline{X}_i)^2\tag{10-18} b(C)=1≤j<i≤k∑​d(Xj​,Xi​)2(10-18) 由于 C C C 有 k k k 个簇,因此公式(10-18)右边是 k ( k + 1 ) / 2 k(k+1)/2 k(k+1)/2 个距离平方之和。

3、聚类C的评价函数

  为了同时评价聚类 C C C 的每个簇是紧凑的,以及不同簇之间是疏远的,即评价聚类 C C C 的总体质量,其基本思想是同时考虑聚类 C C C 的簇内差异 w ( C ) w(C) w(C) 以及簇间差异 b ( C ) b(C) b(C) 的影响。因此,可考虑使用以下几种形式的评价函数作为聚类的质量标准。

(1) f ( C ) = w ( C ) f(C)=w(C) f(C)=w(C)

(2) f ( C ) = 1 / b ( C ) f(C)=1/b(C) f(C)=1/b(C)

(3) f ( C ) = w ( C ) / b ( C ) f(C)=w(C)/b(C) f(C)=w(C)/b(C)

(4) f ( C ) = α w ( C ) + β ( 1 / b ( C ) ) f(C)= \alpha w(C)+\beta(1/b(C)) f(C)=αw(C)+β(1/b(C)),其中 α , β \alpha,\beta α,β 为指定的权值,且 α + β = 1 \alpha+\beta=1 α+β=1。

(5) F ( C ) = ( w ( C ) , 1 / b ( C ) ) F(C)=(w(C),1/b(C)) F(C)=(w(C),1/b(C)),这里的 F F F 为二元目标函数,或多目标函数。

因此,算法10-2就是寻找使 f ( C ) f(C) f(C) 达到最小,或使 F ( C ) F(C) F(C) 达到最小的聚类 C C C,即是我们需要的好聚类。

(三)k-means算法

1、算法描述

  k-means算法也称k-平均算法,它采用距离作为相异度的评价指标,以簇内差异函数 w ( C ) w(C) w(C) 作为聚类质量的优化目标函数,即将所有数据对象到它的簇中心点的距离平方和作为目标函数,算法寻找最优聚类的策略是使目标函数达到最小值 (簇中心不变化等价于 w ( C ) w(C) w(C)达最小)。

算法10-3 基本k-平均算法
输入:数据对象集 S = { X 1 , X 2 , ⋯   , X n } S=\{X_1,X_2,\cdots,X_n\} S={X1​,X2​,⋯,Xn​}和正整数 k k k
输出:划分聚类 C = { C 1 , C 2 , ⋯   , G k } C=\{C_1,C_2,\cdots,G_k\} C={C1​,C2​,⋯,Gk​}
(1)初始步:从 S S S中随机选择 k k k个对象作为 k k k个簇的中心,并将它们分别分配给 C 1 , C 2 , ⋯   , C k C_1,C_2,\cdots,C_k C1​,C2​,⋯,Ck​
(2)REPEAT
(3)将 S S S的每个对象 X i X_i Xi​归入距中心最近的那个簇 C j C_j Cj​
(4)重新计算每个簇 C j C_j Cj​的中心,即每个簇中对象的平均值
(5)Until所有簇中心不再变化

2、计算实例

例10-2 设数据集 S = { ( 1 , 1 ) , ( 2 , 1 ) , ( 1 , 2 ) , ( 2 , 2 ) , ( 4 , 3 ) , ( 5 , 3 ) , ( 4 , 4 ) , ( 5 , 4 ) } S=\{(1,1), (2,1), (1,2), (2,2), (4,3), (5,3), (4,4), (5,4)\} S={(1,1),(2,1),(1,2),(2,2),(4,3),(5,3),(4,4),(5,4)},令 k = 2 k=2 k=2, 试用k-平均算法将 X X X 划分为 k k k 个簇。

在这里插入图片描述
:数据集 S S S 可表示为一张二维表;而每个对象在平面上的相对位置可用下图所示:

在这里插入图片描述
因为 k = 2 k=2 k=2,故 S S S 的聚类 C = { C 1 , C 2 } C=\{C_1,C_2\} C={C1​,C2​},由k-平均算法得循环计算如下:

(1)初始步:任选 X 1 = ( 1 , 1 ) , X 3 = ( 1 , 2 ) X_1=(1,1), X_3=(1,2) X1​=(1,1),X3​=(1,2) 分别作为簇的中心,即 C 1 = { X 1 } C_1=\{X_1\} C1​={X1​} 和 C 2 = { X 3 } C_2=\{X_3\} C2​={X3​};

(2)第一轮循环。
注意到 X 1 , X 3 X_1,X_3 X1​,X3​ 已分配到 C 1 C_1 C1​ 和 C 2 C_2 C2​,因此
① 计算 X 2 X_2 X2​ 的归属:因为 d ( X 2 , X 1 ) 2 = 1 , d ( X 2 , X 3 ) 2 = 2 d(X_2,X_1)^2= 1, d(X_2,X_3)^2=2 d(X2​,X1​)2=1,d(X2​,X3​)2=2 且 1 < 2 1< 2 1<2;所以 X 2 X_2 X2​ 归 X 1 X_1 X1​ 代表的簇,即 C 1 = { X 1 , X 2 } , C 2 = { X 3 } C_1=\{X_1,X_2\}, C_2=\{X_3\} C1​={X1​,X2​},C2​={X3​};
② 计算 X 4 X_4 X4​ 的归属:因为 d ( X 4 , X 1 ) 2 = 2 , d ( X 4 , X 3 ) 2 = 1 d(X_4,X_1)^2= 2, d(X_4,X_3)^2=1 d(X4​,X1​)2=2,d(X4​,X3​)2=1 且 2 > 1 2>1 2>1;所以 X 4 X_4 X4​ 归 X 3 X_3 X3​ 代表的簇,即 C 1 = { X 1 , X 2 } , C 2 = { X 3 , X 4 } C_1=\{X_1,X_2\}, C_2=\{X_3,X_4\} C1​={X1​,X2​},C2​={X3​,X4​};
③ 计算 X 5 X_5 X5​ 的归属:因为 d ( X 5 , X 1 ) 2 = 13 , d ( X 5 , X 3 ) 2 = 10 d(X_5,X_1)^2=13, d(X_5,X_3)^2=10 d(X5​,X1​)2=13,d(X5​,X3​)2=10 且 13 > 10 13>10 13>10;所以 X 5 X_5 X5​ 归 X 3 X_3 X3​ 代表的簇, 即 C 1 = { X 1 , X 2 } , C 2 = { X 3 , X 4 , X 5 } C_1=\{X_1,X_2\}, C_2=\{X_3,X_4,X_5\} C1​={X1​,X2​},C2​={X3​,X4​,X5​};
④ 同理 X 6 , X 7 , X 8 X_6, X_7, X_8 X6​,X7​,X8​ 也归入 X 3 X_3 X3​ 代表的簇,故得初始簇为
C 1 = { X 1 , X 2 } , C 2 = { X 3 , X 4 , X 5 , X 6 , X 7 , X 8 } C_1=\{X_1,X_2\},C_2=\{X_3,X_4,X_5,X_6,X_7,X_8\} C1​={X1​,X2​},C2​={X3​,X4​,X5​,X6​,X7​,X8​} ⑤ 重新计算得 C 1 C_1 C1​ 和 C 2 C_2 C2​ 的中心点分别是 X ‾ 1 = ( 1.5 , 1 ) , X ‾ 2 = ( 3.5 , 3 ) \overline{X}_1=(1.5,1),\overline{X}_2=(3.5,3) X1​=(1.5,1),X2​=(3.5,3)

(3)第二轮循环。
分别将 X 1 , X 2 , ⋯   , X 8 X_1, X_2,\cdots,X_8 X1​,X2​,⋯,X8​ 别分配到最近的中心点 X ‾ 1 \overline{X}_1 X1​ 或 X ‾ 2 \overline{X}_2 X2​。
类似第一轮计算可得 S S S 的两个簇 C 1 = { X 1 , X 2 , X 3 , X 4 } , C 2 = { X 5 , X 6 , X 7 , X 8 } C_1=\{X_1,X_2,X_3,X_4\},C_2=\{X_5,X_6,X_7,X_8\} C1​={X1​,X2​,X3​,X4​},C2​={X5​,X6​,X7​,X8​} 计算得 C 1 C_1 C1​ 和 C 2 C_2 C2​ 的中心点分别是 X ‾ 1 = ( 1.5 , 1.5 ) , X ‾ 2 = ( 4.5 , 3.5 ) \overline{X}_1=(1.5,1.5),\overline{X}_2=(4.5,3.5) X1​=(1.5,1.5),X2​=(4.5,3.5)

(4)第三轮循环。
分别将 X 1 , X 2 , ⋯   , X 8 X_1, X_2,\cdots,X_8 X1​,X2​,⋯,X8​ 分配给最近的中心点 X ‾ 1 \overline{X}_1 X1​ 或 X ‾ 2 \overline{X}_2 X2​。
类似第二轮循环的计算,最终可得 S S S 的两个簇
C 1 = { X 1 , X 2 , X 3 , X 4 } , C 2 = { X 5 , X 6 , X 7 , X 8 } C_1=\{X_1,X_2,X_3,X_4\},C_2=\{X_5,X_6,X_7,X_8\} C1​={X1​,X2​,X3​,X4​},C2​={X5​,X6​,X7​,X8​} 重新计算得 C 1 C_1 C1​ 和 C 2 C_2 C2​ 的中心点分别是 X ‾ 1 = ( 1.5 , 1.5 ) , X ‾ 2 = ( 4.5 , 3.5 ) \overline{X}_1=(1.5,1.5),\overline{X}_2=(4.5,3.5) X1​=(1.5,1.5),X2​=(4.5,3.5)

由于簇中心已没有变化,因此算法停止,并输出 S S S 的聚类
C = { C 1 , C 2 } = { { X 1 , X 2 , X 3 , X 4 } , X 5 , X 6 , X 7 , X 8 } } C=\{C_1,C_2\}=\{\{X_1,X_2,X_3,X_4\}, X_5,X_6,X_7,X_8\}\} C={C1​,C2​}={{X1​,X2​,X3​,X4​},X5​,X6​,X7​,X8​}} 思考:若在此例中指定 k = 3 k=3 k=3,而初始点选择为 X 1 , X 2 , X 3 X_1, X_2, X_3 X1​,X2​,X3​ 与 X 1 , X 5 , X 6 X_1, X_5, X_6 X1​,X5​,X6​,其结果会有啥差异。

3、算法分析说明

1)算法的优点

① k-平均算法简单、经典,常作为其它聚类算法的参照或被改进。
② k-平均算法以 k k k个簇的误差平方和最小为目标,当聚类的每个簇是密集的,且簇与簇之间区别明显时,其聚类效果较好。
③ k-平均算法处理大数据集高效,且具较好的可伸缩性,其计算复杂性为 O ( n × k × t ) O(n\times k\times t) O(n×k×t), n n n是数据对象个数, k k k为簇个数, t t t是迭代次数。

2)算法的缺点

① k-平均算法对初始中心点的选择比较敏感。对同一个数据集,如果初始中心选择不同,其聚类结果也可能不一样。
② k-平均算法对参数 k k k是比较敏感的,即使是同一个数据集,如果 k k k选择不同,其聚类结果可能完全不一样。
③ k-平均算法以簇内对象的平均值作为簇中心来计算簇内误差,在连续属性的数据集上很容易实现,但在具有离散属性的数据集上却不能适用。

(四)空簇与离群点

1、空簇问题

  基本k-平均算法在实际计算中可能出现的空簇现象,导致算法下一轮循环无法进行。

在这里插入图片描述
例10-3 假设 S S S 由表10-3给出,即 S S S 为二维平面上7个点的数据集。令 k = 3 k=3 k=3,请用k-平均算法将 S S S 聚类成3个簇。

:数据集 S S S 在平面上的相对位置如下图所示。

在这里插入图片描述
(1)初始步:选择 X 1 , X 6 , X 7 X_1,X_6,X_7 X1​,X6​,X7​ 作为初始中心,并将它们分别指派给三个簇,即得 C 1 = { X 1 } , C 2 = { X 6 } , C 3 = { X 7 } C_1=\{X_1\},C_2=\{X_6\}, C_3=\{X_7\} C1​={X1​},C2​={X6​},C3​={X7​};

(2)第一次迭代
计算 X 2 , X 3 , X 4 , X 5 X_2,X_3,X_4,X_5 X2​,X3​,X4​,X5​ 与中心点 X ‾ 1 = ( 0 , 0 ) , X ‾ 2 = ( 7 , 3 ) , X ‾ 3 = ( 8 , 2 ) \overline{X}_1=(0,0),\overline{X}_2=(7,3),\overline{X}_3=(8,2) X1​=(0,0),X2​=(7,3),X3​=(8,2) 的距离平方
在这里插入图片描述
将它们指派给距离平方最近的中心点,可得3个簇
C 1 = { X 1 , X 2 , X 3 , X 4 } , C 2 = { X 5 , X 6 } , C 3 = { X 7 } C_1=\{ X_1, X_2, X_3, X_4\},C_2=\{X_5,X_6\},C_3=\{X_7\} C1​={X1​,X2​,X3​,X4​},C2​={X5​,X6​},C3​={X7​} 计算得簇 C 1 , C 2 , C 3 C_1,C_2, C_3 C1​,C2​,C3​ 新的中心点为 X ‾ 1 = ( 1.5 , 2.25 ) , X ‾ 2 = ( 5 , 3 ) , X ‾ 3 = ( 8 , 2 ) \overline{X}_1=(1.5,2.25),\overline{X}_2=(5,3),\overline{X}_3=(8,2) X1​=(1.5,2.25),X2​=(5,3),X3​=(8,2)。

(3)第二次迭代
计算 X 1 , X 2 , X 3 , X 4 , X 5 , X 6 , X 7 X_1,X_2,X_3,X_4,X_5,X_6,X_7 X1​,X2​,X3​,X4​,X5​,X6​,X7​ 与3个新中心点的距离
在这里插入图片描述
将 X 1 , X 2 , X 3 , X 4 , X 5 , X 6 , X 7 X_1,X_2,X_3,X_4,X_5,X_6,X_7 X1​,X2​,X3​,X4​,X5​,X6​,X7​ 指派给距离平方和最小的中心点,可得
C 1 = { X 1 , X 2 , X 3 , X 4 , X 5 } , C 2 = ∅ , C 3 = { X 6 , X 7 } C_1=\{X_1, X_2, X_3, X_4, X_5\},C_2=\varnothing,C_3=\{X_6 ,X_7\} C1​={X1​,X2​,X3​,X4​,X5​},C2​=∅,C3​={X6​,X7​} 这时 C 2 C_2 C2​ 就是一个空簇,因此没有簇的中心点,导致下一步计算无法进行。有以下两种策略来选择一个替补的中心。
(1)选择一个距离当前任何质心最远的点,并可消除当前对总平方误差影响最大的点。
(2)从具有最大 w ( C i ) w(C_i) w(Ci​) 的簇中选择一个替补质心,并对该簇进行分裂簇,以此降低聚类的 w ( C ) w(C) w(C)。

2、离群点问题

  k-平均算法使用误差平方和 w ( C ) w(C) w(C) 作为优化目标时,离群点可能过度影响所发现的簇质量,即当存在离群点时,聚类结果簇的质心可能不如没有离群点时那样具有代表性,并且 w ( C ) w(C) w(C) 也比较高。此例 X 1 X_1 X1​ 就是明显的离群点。因此,如果能够提前发现离群点并删除它们,在k-平均算法的聚类应用中常常是有用的。
在有些实际应用中,如股票市场交易分析,一些明显的离群点 (股票黑马) 恰恰可能是最令人感兴趣的。

(五)k-中心点算法

  为降低k-平均算法对噪声数据的敏感性,k-中心点 (k-medoids) 算法不采用簇的平均值 (通常不是簇中的对象,称为虚拟点) 作为簇中心点,而是选择簇中一个离平均值最近的具体对象作为簇中心。

1、算法原理

  k-中心点算法选择一个簇中位置距平均值点最近的对象替换k-平均算法的平均值中心点。首先为每个簇随机选择一个代表对象作中心点,其余对象 (非中心点) 分配给最近的代表对象所在的簇。然后反复地用一个用非代表对象替换一个代表对象,使其聚类质量更高 (用某种代价函数评估),直到聚类质量无法提高为止。
  设 S = { X 1 , X 2 , X 3 , ⋯   , X n } S=\{X_1,X_2,X_3,\cdots,X_n\} S={X1​,X2​,X3​,⋯,Xn​},任选 k k k 个对象 O i ( i = 1 , 2 , ⋯   , k ) O_i(i=1,2,\cdots,k) Oi​(i=1,2,⋯,k) 作为中心点,记作中心点集 O = { O 1 , O 2 , ⋯   , O k } O=\{O_1, O_2,\cdots, O_k\} O={O1​,O2​,⋯,Ok​},其余 n − k n-k n−k 个对象称为非中心点,记作非中心点集 Q = { Q 1 , ⋯   , Q r , ⋯   , O n − k } ( S = O ∪ Q ) Q=\{Q_1, \cdots, Q_r,\cdots, O_{n-k}\}(S=O\cup Q) Q={Q1​,⋯,Qr​,⋯,On−k​}(S=O∪Q),并将它们分配给最近的中心点,并得聚类 C = { C 1 , C 2 , ⋯   , C k } C=\{C_1, C_2, \cdots,C_k\} C={C1​,C2​,⋯,Ck​},其中 C i C_i Ci​ 的中心点为 O i ( i = 1 , 2 , ⋯   , k ) O_i(i=1,2, \cdots,k) Oi​(i=1,2,⋯,k)。
  然后计算用一个非中心点 Q r Q_r Qr​ 去替换每一个中心点 O i ( i = 1 , 2 , ⋯   , k ) O_i(i=1,2,\cdots,k) Oi​(i=1,2,⋯,k) 的代价 E i r E_{ir} Eir​,找出代价最小且为负数对应的替代方案。若中心点 O i O_i Oi​ 被一个非中心点 Q r Q_r Qr​ 替换,就得到新的中心点集合 O = { O 1 , ⋯   , O i − 1 , Q r , O i + 1 , ⋯   , O k } O=\{O_1, \cdots,O_{i-1}, Q_r,O_{i+1}, \cdots, O_k\} O={O1​,⋯,Oi−1​,Qr​,Oi+1​,⋯,Ok​},则可能引起 S S S 中每个对象 X j X_j Xj​ 到新中心点的距离变化,将这种变化之和称为代价,记作
E i r = ∑ j = 1 n W j i r (10-19) E_{ir}=\sum_{j=1}^nW_{jir}\tag{10-19} Eir​=j=1∑n​Wjir​(10-19) 其中 W j i r W_{jir} Wjir​ 表示 X j X_j Xj​ 因 O i O_i Oi​ 被 Q r Q_r Qr​ 替换后产生的代价,用替换前后 X j X_j Xj​ 到中心点距离之差表示,且 W j i r W_{jir} Wjir​ 的值因 X j ( j = 1 , 2 , ⋯   , n ) X_j (j=1,2,\cdots,n) Xj​(j=1,2,⋯,n) 原先是否在 O i O_i Oi​ 代表的簇中而对应不同的计算方法。

(1)若 X j X_j Xj​ 原先属于 O i O_i Oi​ 的簇 C i C_i Ci​,则有两种情况。
① X j X_j Xj​ 现在离某中心点 O m ( m ≠ i ) O_m(m≠i) Om​(m=i) 最近 (图10-11a),则 X j X_j Xj​ 被重新分到 O m O_m Om​ 的簇,其代价
W j i r = d ( X j , O m ) − d ( X j , O i ) W_{jir}=d(X_j,O_m)-d(X_j,O_i) Wjir​=d(Xj​,Om​)−d(Xj​,Oi​)在这里插入图片描述
② X j X_j Xj​ 现在离新中心点 Q r Q_r Qr​ 最近 (图10-11b),则 X j X_j Xj​ 被重新分配到 Q r Q_r Qr​ 的簇中, 其代价
W j i r = d ( X j , Q r ) − d ( X j , O i ) W_{jir}=d(X_j,Q_r)-d(X_j,O_i) Wjir​=d(Xj​,Qr​)−d(Xj​,Oi​)在这里插入图片描述
(2)若 X j X_j Xj​ 原先属于某中心点 O m O_m Om​ 的簇 C m ( m ≠ i ) C_m(m≠i) Cm​(m=i),也有两种情况
① X j X_j Xj​ 现在离中心点 O m O_m Om​ 仍然最近 (图10-12a),则 X j X_j Xj​ 保留在 O m O_m Om​ 的簇中,其代价
W j i r = 0 W_{jir}=0 Wjir​=0在这里插入图片描述
② X j X_j Xj​ 现在离新中心点 Q r Q_r Qr​ 最近 (图10-12b),则将 X j X_j Xj​ 重新分配到 Q r Q_r Qr​ 的簇中,其代价
W j i r = d ( X j , Q r ) − d ( X j , O m ) W_{jir}=d(X_j,Q_r)-d(X_j,O_m) Wjir​=d(Xj​,Qr​)−d(Xj​,Om​)在这里插入图片描述
  由于中心点有 k k k 个,非中心点有 n − k n-k n−k 个,因此,中心点 O i O_i Oi​ 被一个非中心点 Q r Q_r Qr​ 替换就有 ( n − k ) × k (n-k)\times k (n−k)×k 个不同的方案及其对应的代价。
  如果 E i h = m i n { E i r ∣ i = 1 , 2 , ⋯   , k ; r = 1 , 2 , ⋯   , n − k ) } E_{ih}=min\{E_{ir} | i=1,2,\cdots,k;r=1,2,\cdots,n-k)\} Eih​=min{Eir​∣i=1,2,⋯,k;r=1,2,⋯,n−k)} 且 E i h < 0 E_{ih}<0 Eih​<0,则将中心点 O i O_i Oi​ 用非中心点 Q h Q_h Qh​ 替换,使 S S S 中每个点到新中心点的距离之和减少,即提高了聚类的总体质量。
  在得到新的中心点集之后,计算得到新的聚类,然后继续寻找可替换的中心点,直到中心点集没有变化为止。

2、算法描述

算法10-4 k-中心点聚类算法
输入:簇的个数 k k k和数据集 S = { X 1 , X 2 , ⋯   , X n } S=\{X_1,X_2,\cdots,X_n\} S={X1​,X2​,⋯,Xn​}
输出:低价最小的聚类 C = { C 1 , C 2 , ⋯   , C k } C=\{C_1,C_2,\cdots,C_k\} C={C1​,C2​,⋯,Ck​}
(1)从 S S S中随机选 k k k个对象作为中心点集 O = { O 1 , O 2 , ⋯   , O k } O=\{O_1,O_2,\cdots,O_k\} O={O1​,O2​,⋯,Ok​}
(2)REPEAT
(3)将所有非中心点分配给离它最近的中心点,并得聚类 C C C
(4)FOR i = 1 , 2 , ⋯   , k i=1,2,\cdots,k i=1,2,⋯,k
(5)  FOR r = 1 , 2 , ⋯   , n − k r=1,2,\cdots,n-k r=1,2,⋯,n−k
(6)  计算 S S S中每个 X j X_j Xj​因中心点 O i O_i Oi​被非中心点 Q r Q_r Qr​替换后重新分配的代价 W j i r W_{jir} Wjir​
(7)   E i r = W 1 i r + W 2 i r + ⋯ + W n i r E_{ir}=W_{1ir}+W_{2ir}+\cdots+W_{nir} Eir​=W1ir​+W2ir​+⋯+Wnir​
(8)  END FOR
(9)END FOR
(10) E i h = min ⁡ { E i r ∣ i = 1 , 2 , ⋯   , k ; r = 1 , 2 , ⋯   , n − k } E_{ih}=\min\{E_{ir}|i=1,2,\cdots,k; r=1,2,\cdots,n-k\} Eih​=min{Eir​∣i=1,2,⋯,k;r=1,2,⋯,n−k}
(11)如果 E i h < 0 E_{ih}<0 Eih​<0,则将 O i O_i Oi​用 Q r Q_r Qr​替换,得新中心点集 O = { O 1 , ⋯   , O i − 1 , Q r , O i + 1 , ⋯   , O k } O=\{O_1, \cdots,O_{i-1}, Q_r,O_{i+1}, \cdots, O_k\} O={O1​,⋯,Oi−1​,Qr​,Oi+1​,⋯,Ok​}
(12)UNTIL中心点集 O O O无需变化
(13)输出 C = { C 1 , C 2 , ⋯   , C k } C=\{C_1,C_2,\cdots,C_k\} C={C1​,C2​,⋯,Ck​}

标签:10,Ci,算法,cdots,中心点,聚类,方法,聚类分析
From: https://blog.csdn.net/Morse_Chen/article/details/140180165

相关文章

  • Set接口和常用方法
    基本介绍无序(添加和取出顺序不一致),无索引不允许出现重复元素,因此最多包含一个nulljDKAPI中Set的实现类:Set接口的常用方法和List接口一样,Set接口也是Collection的子接口,因此,常用方法与Collection一样Set接口的遍历方式与Collection一样;但是不能用索引方式来获取。//set......
  • 在Linux中,系统目前有许多正在运行的任务,在不重启机器的条件下,有什么方法可以把所有正
    在Linux中,可以使用kill命令来终止正在运行的进程。要移除所有正在运行的进程,可以结合使用ps命令和xargs命令来实现。首先,我们可以使用ps命令列出所有正在运行的进程,然后通过管道(|)将结果传递给xargs命令,最后使用kill命令终止这些进程。具体操作如下:打开终端。输入以下命令:ps......
  • Java编程:解决实际问题的高效方法
    ......
  • 通过大众点评进行连锁店铺跟踪(均价、门店数等)、关键词店铺挖掘的思路方法
    在做一些城市分析、学术研究分析、商业选址、商业布局分析等数据分析挖掘时,大众点评的数据参考价值非常大,这里提供一种通过大众点评进行连锁店铺跟踪(均价、门店数等)、关键词店铺挖掘的思路方法。通过大众点评提供搜索页面,可以在指定城市下进行关键词搜索,例如搜索北京市的蜜雪......
  • 电脑不读硬盘的解决方法
    电脑无法读取硬盘可能由硬盘连接问题、BIOS设置不当、分区问题、硬盘故障、电源问题等引起。解决方法包括检查连接、调整BIOS设置、修复分区表、送修或更换硬盘、更换电源等。一、可能的原因硬盘连接问题:电脑无法识别硬盘的一个常见原因是硬盘与主板之间的连接出现问题。这可能......
  • ENVI无缝镶嵌、拼接栅格数据的方法
      本文介绍基于ENVI软件,利用“SeamlessMosaic”工具实现栅格遥感影像无缝镶嵌的操作。  在遥感图像镶嵌拼接:ENVI的PixelBasedMosaicking工具操作方法这篇文章中,我们介绍了在ENVI软件中通过“PixelBasedMosaicking”工具实现栅格遥感影像的镶嵌的方法。这一工具虽然可以......
  • 会声会影2024官方破解版下载全攻略方法教程最新
    《会声会影2024破解版》是一款流行的视频编辑软件,其正式版通常需付费使用。然而,由于正版费用较高,一些用户可能寻求破解版以免费享受该软件的全部功能。这种需求反映了普通用户在面对昂贵软件时的经济考量与版权意识之间的冲突。会声会影全版本绿色安装包获取链接:(抓紧保存以防......
  • Java信号量semaphore的原理与使用方法
    Semaphore的基本概念在Java中,Semaphore是位于java.util.concurrent包下的一个类。它的核心就是维护了一个许可集。简单来说,就是有一定数量的许可,线程需要先获取到许可,才能执行,执行完毕后再释放许可。那么,这个许可是什么呢?其实,你可以把它想象成是对资源的访问权。比如,有5个......
  • 机械硬盘坏了怎么导出数据?5中高效恢复数据的方法
    面对机械硬盘损坏的紧急情况,如何有效地导出数据成为了许多用户关注的焦点。以下是对上述方法的深入分析与润色,旨在为用户提供更加全面、清晰的指导。机械硬盘损坏后的数据导出策略1.利用数据恢复软件:当机械硬盘出现逻辑故障或轻微物理损伤时,首先可以尝试使用专业的数据恢......
  • 超参数优化方法之贝叶斯优化实现流程及代码
    超参数优化方法之贝叶斯优化实现流程及代码在机器学习模型的训练过程中,超参数的选择往往对模型性能有着决定性的影响。贝叶斯优化作为一种高效的超参数调优方法,以其在高维空间中的搜索效率和对最优化问题的独特见解而受到关注。本文将深入探讨贝叶斯优化的基本原理、实现策......