首页 > 其他分享 >详解机器学习经典模型(原理及应用)——KNN

详解机器学习经典模型(原理及应用)——KNN

时间:2024-09-24 16:23:59浏览次数:3  
标签:KNN knn train 经典 test import 数据 详解

一、什么是KNN

        K最近邻(K-Nearest Neighbors,KNN)是一种简单而强大的机器学习算法,它基于一个基本的假设:相似的样本通常在特征空间中彼此接近。KNN算法通过查找一个样本的最近K个邻居来预测该样本的类别或属性。

二、KNN算法流程

        KNN没有显式的训练阶段,它只需要存储训练数据集。因此,在数据集规模和特征数量相同的条件下,KNN建模训练的速度要比其他模型快很多,基本数据集读完就等于完成了模型的训练。

1、距离度量

        KNN算法使用距离度量来确定数据点之间的相似性。最常见的距离度量是欧几里得距离,也可以使用曼哈顿距离、切比雪夫距离或余弦相似度等。

2、选择K值

        K是一个超参数,表示在进行决策时考虑的最近邻居的数量。K的选择对模型的性能有很大影响,一般我们会根据任务指标去确定最佳的K,使用网格搜索之类的方法进行调参即可。

3、决策

        对于分类任务,KNN算法会根据K个最近邻居的类别,通过多数投票法来预测新样本的类别。对于回归任务,KNN算法会计算K个最近邻居的目标值的平均值,作为新样本的目标值。

三、KNN算法优化

        KNN的预测过程中,对于每一个新样本,都会依次计算该样本与训练集中每一条样本的距离,从而选出最邻近K个样本。显然,当训练集数据量较大的时候,这种预测方式将会很慢。为了提高预测时的效率,可以构建索引,如KD树或球树,这些数据结构可以加速最近邻居的搜索过程(主流的第三方库已经内置实现方式了,只需要调整参数选择合适的优化算法即可)。

1、KD(K-Dimensional Tree)树

        KD树是一种用于组织点在K维空间中的数据结构,它类似于二叉搜索树,但用于多维空间。KD树通过递归地将数据集分割成两个子集来构建树结构。KD树适用于低维数据(通常小于20维),在这些情况下,它可以非常有效地进行最近邻搜索。

(1)构建过程

  • 在每个维度上选择一个轴,并选择该维度上的中位数作为分割点。
  • 将数据点分为两部分:一部分在分割点的一侧,另一部分在另一侧。
  • 递归地在每个子集上重复这个过程,每次选择不同的维度。

(2)搜索过程

  • 从根节点开始,根据数据点的值沿着树向下搜索。
  • 在每个节点,选择与查询点在当前维度上值更接近的子树。

2、球树

        球树是一种用于组织数据点的层次聚类数据结构,它将数据点聚类成一系列嵌套的超球体(几何学概念,指高维空间中半径固定的所有点的集合)。球树适用于高维数据,因为它可以更好地处理维度灾难(随着维度增加,数据点之间的距离变得不那么重要)。

(1)构建过程

  • 选择一个数据点作为中心,创建一个包含所有点的超球体。
  • 将数据点分为两个子集,每个子集由一个子球体表示,这些子球体与父球体相交。
  • 递归地在每个子集上重复这个过程,每次都选择新的中心和创建新的超球体。

(2)搜索过程

  • 从根节点开始,检查查询点是否在当前球体内部。
  • 如果是,继续在子球体中搜索;如果不是,跳过当前分支。

四、KNN代码实现

1、分类

from sklearn.neighbors import KNeighborsClassifier
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler

# 加载数据集
iris = load_iris()
X = iris.data
y = iris.target

# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 特征缩放
scaler = StandardScaler()
X_train = scaler.fit_transform(X_train)
X_test = scaler.transform(X_test)

# 创建KNN分类器实例
knn = KNeighborsClassifier(n_neighbors=3)

# 训练模型
knn.fit(X_train, y_train)

# 在测试集上进行预测
y_pred = knn.predict(X_test)

# 计算准确率
accuracy = knn.score(X_test, y_test)
print(f'Accuracy: {accuracy:.2f}')

2、回归

# 导入必要的库
from sklearn.datasets import load_boston
from sklearn.neighbors import KNeighborsRegressor
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error

# 加载波士顿房价数据集
boston = load_boston()
X = boston.data
y = boston.target

# 划分数据集为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建 KNN 回归器实例
# n_neighbors 表示 K 的值,即考虑的最近邻居的数量
knn_reg = KNeighborsRegressor(n_neighbors=5)

# 训练模型
knn_reg.fit(X_train, y_train)

# 在测试集上进行预测
y_pred = knn_reg.predict(X_test)

# 计算均方误差(MSE)
mse = mean_squared_error(y_test, y_pred)
print(f'Mean Squared Error: {mse:.2f}')

# 计算决定系数 R^2
r2 = knn_reg.score(X_test, y_test)
print(f'R^2 Score: {r2:.2f}')

五、总结

        在一些时间紧急的业务场景中,需要算法模型交付但是不要求高指标(比如项目的开发联调阶段),KNN模型也是一个不错的选择。只需要对数据进行归一化(当各个特征的尺度/范围差异较大时)即可直接训练一个KNN模型,甚至不需要在建模之前进行特征工程(毕竟它的核心是距离度量)。

1、优点

        (1)简单易懂:KNN算法的原理和实现都非常简单。

        (2)无需训练:不需要复杂的训练过程。

        (3)可用于非线性问题:KNN可以很好地处理非线性问题。

        (4)可用于多分类问题:KNN可以处理多分类问题。

2、缺点

        (1)推理成本高:在预测时需要计算新样本与所有训练样本之间的距离,这在大数据集上非常耗时。

        (2)存储成本高:需要存储整个训练数据集。

        (3)对异常值敏感:KNN对异常值和噪声数据非常敏感。

        (4)需要选择合适的K值:K值的选择对模型性能有很大影响,且没有统一的标准。

标签:KNN,knn,train,经典,test,import,数据,详解
From: https://blog.csdn.net/ChaneMo/article/details/142455953

相关文章

  • JVM内存区域详解及DirectByteBuffer内存
    Java虚拟机(JVM)是Java程序运行的基础,它为Java程序提供了一个与平台无关的执行环境。JVM内存区域的划分对于理解Java程序的运行机制至关重要。本文将详细介绍JVM的内存区域,并探讨对外内存中的DirectByteBuffer。方法区(MethodArea)方法区是JVM中所有线程共享的内存区域。它主......
  • vue-grid-layout详解
    vue-grid-layout教程vue-grid-layout是一个用于Vue.js的响应式拖放网格布局组件,允许开发者创建可调整大小、可拖放的布局,广泛用于仪表板、管理面板等复杂布局需求。本教程将介绍如何安装、配置和使用vue-grid-layout。目录安装基本使用布局设置拖拽和调整大小高级使用响应式布......
  • WebRTC中的维纳滤波器实现详解:基于决策导向的SNR估计
    目录1.维纳滤波器的基本原理2.WebRTC中的维纳滤波器实现3.代码逐步剖析4.总结在WebRTC的噪声抑制模块中,维纳滤波器(WienerFilter)是一种非常常见且重要的滤波器,用于提高语音信号的清晰度并抑制背景噪声。本文将详细解释维纳滤波器在WebRTC中的实现逻辑,并结合代码......
  • JMeter与大模型融合应用之JMeter菜单栏中切入大模型交互详解
    JMeter与大模型融合应用之JMeter菜单栏中切入大模型交互详解门槛要求本文开始,我们就具体针对JMeter与大模型之间的具体功能实现进行详细介绍。在具体介绍之前,这里需要说明几点:第一:本文所有开发的特性都是基于JMeter5.1.1版本进行开发。第二:针对JMeter如何从官网下载源......
  • 详解2024 openAi最新gpt o1模型分析
    探索GPT的O1模型:一场人工智能的革命在人工智能领域,尤其是自然语言处理(NLP)领域,模型的不断迭代和升级为我们带来了前所未有的机遇。最近,OpenAI发布了全新的O1模型,这一创新不仅在技术上取得了重大突破,也为各行各业的应用提供了更多可能性。本文将深入探讨O1模型的核......
  • 详解Diffusion扩散模型:理论、架构与实现
    本文深入探讨了Diffusion扩散模型的概念、架构设计与算法实现,详细解析了模型的前向与逆向过程、编码器与解码器的设计、网络结构与训练过程,结合PyTorch代码示例,提供全面的技术指导。关注TechLead,复旦AI博士,分享AI领域全维度知识与研究。拥有10+年AI领域研究经验、复旦机器人智......
  • 如果你的两个连续变量都是小于0的浮点数,并且你想要使用K近邻(KNN)方法来估计它们的概率
    如果你的两个连续变量都是小于0的浮点数,并且你想要使用K近邻(KNN)方法来估计它们的概率分布并计算KL散度,你可以按照以下步骤进行:确保数据是适当格式化的,即所有值都是负数。使用K近邻方法(如核密度估计)来估计每个数据集的概率密度函数(PDF)。在相同的评估点集上计算这两个PDF。使用这些PD......
  • kl散度,K近邻估计法(K-Nearest Neighbors, KNN)是一种基本的分类与回归方法,通常用于分类
     K近邻估计法(K-NearestNeighbors,KNN)是一种基本的分类与回归方法,通常用于分类任务。在Python中,你可以使用scikit-learn库来实现KNN算法。下面是一个简单的示例,展示如何使用scikit-learn来实现KNN分类器。首先,确保你已经安装了scikit-learn库。如果没有安装,可以通过运行pipinsta......
  • Hutool 使用详解
    Hutool是一个Java工具包,它为开发者提供了一系列实用的工具类和方法,帮助简化开发工作。本文将详细介绍Hutool的主要功能和使用方法,帮助开发者更好地利用这个强大的工具包。目录Hutool简介Hutool的安装与配置常用工具类介绍字符串工具类集合工具类日期时间工具类文件工具......
  • Java 音视频处理详解
    Java作为一种通用的编程语言,具备强大的跨平台能力和丰富的第三方库支持,使其在音视频处理领域也能大展拳脚。本文将详细介绍Java在音视频处理中的常用技术和方法,包括音视频捕获、处理、存储和播放。通过对实际代码示例的讲解,帮助读者深入理解并掌握Java音视频处理的核心内容。......