简介
K均值聚类(K-Means Clustering)是一种常用的无监督学习算法,用于将数据样本划分为若干个“簇”,使得同一簇内的数据点彼此相似,而不同簇的数据点之间差异较大。由于K均值不依赖于标签,因此它是一种无监督学习方法。常见的应用包括客户细分、图像分割和数据可视化等。
K均值算法
K均值算法的基本步骤如下:
- 定义簇的数量 k(需手动设定)。
- 初始化簇的质心,这些质心在数据空间中随机选择。
- 分配簇:对于每个数据点,计算其到每个簇质心的距离,并将其分配给最近的簇。
- 更新质心:重新计算每个簇的质心,即该簇内所有点的均值。
- 迭代:重复步骤3和4,直到簇的分配不再发生变化,或达到最大迭代次数。
选择K值
选择K的值通常通过评估簇的“好坏”来实现。常用的方法是“肘部法则”(Elbow Method),其基本思路是找到误差平方和(Within-Cluster Sum of Squares, WCSS)与簇数量之间的关系图,选择拐点处的K值。拐点即“肘部”位置,代表增加簇的数量对减少误差的改进不再明显。
代码实现
以下是K均值聚类的代码示例,展示了如何使用Python进行K均值聚类分析:
import numpy as np
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans
from sklearn.datasets import make_blobs
# 生成示例数据
X, _ = make_blobs(n_samples=500, centers=4, cluster_std=0.60, random_state=0)
# K均值聚类
kmeans = KMeans(n_clusters=4)
kmeans.fit(X)
y_kmeans = kmeans.predict(X)
# 绘制结果
plt.scatter(X[:, 0], X[:, 1], c=y_kmeans, s=50, cmap='viridis')
centers = kmeans.cluster_centers_
plt.scatter(centers[:, 0], centers[:, 1], c='red', s=200, alpha=0.75, marker='x')
plt.title('K-Means Clustering')
plt.xlabel('Feature 1')
plt.ylabel('Feature 2')
plt.show()
结语
K均值聚类与之前介绍的监督学习模型(如决策树、Bagging和随机森林)有显著不同。监督学习模型依赖于标签来训练模型并进行预测,而K均值聚类则通过无监督的方式探索数据的内在结构,无需标签信息。这使得K均值在处理没有标签的数据集时特别有用,比如在市场细分或图像分析中。然而,K均值的效果很大程度上依赖于簇数K的选择,这需要在实际应用中根据具体情况进行调优。
如果你觉得这篇博文对你有帮助,请点赞、收藏、关注我,并且可以打赏支持我!
欢迎关注我的后续博文,我将分享更多关于人工智能、自然语言处理和计算机视觉的精彩内容。
谢谢大家的支持!
标签:Clustering,plt,Means,Python,均值,kmeans,聚类,质心,centers From: https://blog.csdn.net/ljd939952281/article/details/141691380