首页 > 其他分享 >人工智能基础概念5:使用L1范数惩罚进行Lasso回归(正则化)解决机器学习线性回归模型幻觉和过拟合的原理

人工智能基础概念5:使用L1范数惩罚进行Lasso回归(正则化)解决机器学习线性回归模型幻觉和过拟合的原理

时间:2024-04-05 21:30:29浏览次数:13  
标签:权重 回归 正则 L1 范数 模型 向量 Lasso

一、引言

在老猿CSDN的博文《人工智能基础概念3:模型陷阱、过拟合、模型幻觉》中介绍了通过L1或L2正则化来限制模型的复杂度来解决过拟合的问题,老猿当时并不了解这背后的原理,这2天通过查阅资料终于明白了相关知识,在此一L1正则化来分享一下相关原理。
在这里插入图片描述

二、相关概念

2.1、范数

范数是数学中的一个概念,用于衡量向量的“大小”或者说是长度。在线性代数和相关的数学领域中,范数是定义在向量空间上的一个函数,它将每一个向量映射到非负实数,满足一定的性质,使得这个函数可以被视为该向量空间中的“长度”或“大小”。

范数的常见性质包括:

  • 非负性:对于任意向量x,其范数∥x∥总是大于或等于0,且当且仅当x是零向量时∥x∥=0;
  • 齐次性:对于任意标量α和任意向量x,有∥αx∥=∣α∣∥x∥;
  • 三角不等式:对于任意两个向量x和y,有∥x+y∥≤∥x∥+∥y∥。

以下是几种常见的范数:

  1. L1范数(也称为曼哈顿距离):对于向量x = (x1, x2, …, xn),其L1范数定义为 ∥ x ∥ 1 = ∑ i = 1 n ∣ x i ∣ \|x\|_1 = \sum_{i=1}^{n} |x_i| ∥x∥1​=i=1∑n​∣xi​∣
    这可以被视为从原点到向量x点的最短路径(曼哈顿距离);
  2. L2范数(欧几里得范数):对于向量x = (x1, x2, …, xn),其L2范数定义为 ∥ x ∥ 2 = x 1 2 + x 2 2 + . . . + x n 2 \|x\|_2 = \sqrt{x_1^2 + x_2^2 + ... + x_n^2} ∥x∥2​=x12​+x22​+...+xn2​ ​这是最常见的范数类型,它表示向量在欧几里得空间中的“直线”距离
  3. 无穷范数:对于向量xx = (x1, x2, …, xn),其无穷范数定义为: ∥ x ∥ ∞ = max ⁡ i = 1 n ∣ x i ∣ \|x\|_{\infty} = \max_{i=1}^{n} |x_i| ∥x∥∞​=maxi=1n​∣xi​∣,这表示向量中的最大绝对值。

范数在多个领域都有广泛的应用,如在优化问题中作为目标函数或约束条件,以及在机器学习中作为正则化项来防止过拟合。通过使用不同的范数,可以引导算法关注不同的目标,比如L1范数倾向于产生稀疏解,而L2范数则倾向于平滑权重分布。

2.2、L1正则化

L1正则化,也称为Lasso正则化(Least Absolute Shrinkage and Selection Operator)、Lasso回归,是一种用于防止过拟合的线性回归方法。

Lasso回归是一种用于处理线性回归模型中变量选择和正则化的技术,它通过目标函数中添加一个与权重绝对值成正比的惩罚项的方法,具体是用一个与模型参数权重对应的L1范数的惩罚项的来实现这一目标。这种方法不仅可以应用于线性回归模型,还可以扩展到其他类型的模型中,尽管在其他模型中的应用可能不如在线性回归中那么直接或常见。

L1正则化的惩罚项是模型权重的绝对值之和。具体来说,如果有一个线性模型,其损失函数为L,那么L1正则化的损失函数可以表示为:

L L1 = L + λ ∑ i = 1 n ∣ w i ∣ L_{\text{L1}} = L + \lambda \sum_{i=1}^{n} |w_i| LL1​=L+λi=1∑n​∣wi​∣

其中,wi是模型的权重,即线性模型L中各个xi的系数参数,λ 是正则化参数,它控制着惩罚项的强度。较大的λ值会导致权重的压缩,从而可能产生稀疏权重,即许多权重会变为零。

2.3、最小二乘回归

最小二乘回归(Least Squares Regression)是一种统计学方法,用于估计自变量(解释变量)和因变量(响应变量)之间的关系。该方法的核心思想是通过最小化误差的平方和来寻找数据的最佳函数匹配。
该方法假设模型的自变量xi和因变量y之间是线性关系,即 y = β 0 + β 1 x 1 + β 2 x 2 + . . . + β n x n y=β0+β_1x_1+β_2x_2+...+β_nx_n y=β0+β1​x1​+β2​x2​+...+βn​xn​ ​
,其中 x1, x2, …, xn是自变量,而 β1,β2,…,βn是与每个自变量相对应的系数。通过计算每个数据点的实际观测值和模型预测值之间的差异(残差,即 y i − y i ^ yi-\hat{yi} yi−yi^​),然后计算这些残差的平方和( Σ ( y i − y i ^ ) 2 Σ(yi-\hat{yi})² Σ(yi−yi^​)2),要求参数β1,β2,…,βn使得残差平方和最小。(请参考老猿在CSDN的博文《人工智能基础概念4:似然函数、最大似然估计案例详解》的相关介绍)

三、L1正则化解决模型幻觉和过拟合的原理分享

3.1、L1正则化解决模型幻觉的过程分析

在线性模型中引入L1正则化后,模型的回归优化过程可以通过以下几个步骤来解释:

  1. 初始化权重:优化算法首先会初始化权重向量w的值,这些值可以是随机的或者基于某种启发式方法得到的
  2. 计算梯度:在每次迭代中,算法会计算目标函数关于权重向量的梯度。目标函数包括损失函数和L1正则化项,对于L1正则化项,梯度是权重向量 \mathbf{w}w 的元素-wise绝对值
  3. 更新权重:根据计算出的梯度,算法会更新权重向量的值。在标准的梯度下降中,权重的更新公式为:
    w new = w old − η ∇ L ( w ) \mathbf{w}_{\text{new}} = \mathbf{w}_{\text{old}} - \eta \nabla \mathcal{L}(\mathbf{w}) wnew​=wold​−η∇L(w)
    其中,η 是学习率,∇L(w) 是目标函数关于权重向量的梯度。
  4. 应用L1正则化:在L1正则化的影响下,权重更新的过程中会考虑到正则化项。当 λ 增加时,正则化项的影响变得更大,导致更新后的权重更倾向于接近零
  5. 检查权重:在更新权重后,算法会检查每个权重的新值。如果一个权重更新后非常接近零(例如,小于某个阈值),算法可能会决定将其设置为精确的零。这样做的原因是,保留一个非常小的非零权重对模型的贡献微乎其微,而且还会因为L1正则化项而带来额外的惩罚
  6. 重复迭代:这个过程在多次迭代中重复进行,直到满足停止条件(例如,梯度接近零,损失函数不再显著改善,或者达到预设的迭代次数)

在这里插入图片描述

上述过程中:

  1. 通过调整惩罚参数(通常表示为λ)来影响模型的输出值。当λ的值较小时,惩罚项的作用较弱,模型更接近于普通的最小二乘回归。随着λ的增大,惩罚项的作用对模型影响越大,为了抵消λ的影响,就会使得进行回归时会对模型的权重系数各个值wi往下调整,即L1正则化使得每个权重的L1范数项(即权重的绝对值)都会受到惩罚;
  2. 权重的惩罚与其绝对值成正比,这意味着,即使是一个很小的权重,只要它不为零,也会受到惩罚。随着正则化参数 λ 的增加,这个惩罚变得更加严厉(即权重各系数的绝对值缩小更厉害);
  3. 在某个点上,优化算法可能会发现小于指定阈值的权重,此时优化算法会将该权重强制设置为0,因为这样可以减少整体的正则化惩罚,而对损失函数的影响不大。这就是“较小的权重会受到更大的影响”。

通过这种方式,优化算法在每次迭代中都会评估权重的更新,并在必要时将它们设置为零,在正则化的影响下,较小的权重更容易被压缩到零。这个过程是自动的,由算法的迭代更新规则和L1正则化项的惩罚性质共同决定的。最终,这导致了一些权重变为零,从而实现了模型的稀疏性和特征选择,从而简化模型。

L2正则化的原理和过程与L1实现方法类似,只是L1正则化的惩罚项是模型权重的绝对值(范数)之和,即 ∥ w ∥ 1 = ∑ i = 1 n ∣ w i ∣ \|w\|_1 = \sum_{i=1}^{n} |w_i| ∥w∥1​=∑i=1n​∣wi​∣,L2正则化的惩罚项是模型权重的平方和,即 ∥ w ∥ 2 = ∑ i = 1 n w i 2 \|w\|_2 = \sum_{i=1}^{n} w_i^2 ∥w∥2​=∑i=1n​wi2​ 。

L2正则化不会将权重压缩至零,而是倾向于均匀地缩减所有权重的大小,这意味着它不具备特征选择的能力,但具有其他优点,在此就不展开介绍。

3.2、L1正则化解决模型幻觉和过拟合的过程举例

假设有一个线性回归模型,其目标函数的损失函数为均方误差(MSE):
L ( w ) = 1 n ∑ i = 1 n ( y i − ( w ⋅ x i ) ) 2 L(\mathbf{w}) = \frac{1}{n} \sum_{i=1}^{n} (y_i - (\mathbf{w} \cdot \mathbf{x}_i))^2 L(w)=n1​i=1∑n​(yi​−(w⋅xi​))2
其中,yi是观测值,Xi是特征向量,W是权重向量。

对上述模型引入L1正则化项,优化问题变为: min ⁡ w L ( w ) + λ ∥ w ∥ 1 \min_{\mathbf{w}} L(\mathbf{w}) + \lambda \|\mathbf{w}\|_1 minw​L(w)+λ∥w∥1​
其中, ∣ ∣ W ∣ ∣ 1 = ∑ j = 1 m ∣ w j ∣ ||W||_1 = \sum_{j=1}^{m} |w_j| ∣∣W∣∣1​=∑j=1m​∣wj​∣是权重向量W的L1范数,λ 是正则化参数,控制正则化的强度。

假设权重向量 w 有两个权重 w1、w2,初始时 w1 = 0.1,w2 = 0.01。在没有正则化的情况下,这两个权重对模型的贡献可能相似。但当引入L1正则化项时,情况会发生变化。

由于L1正则化是与权重的绝对值成正比的,所以 w2的惩罚项λ×0.01 会比 w1的惩罚项 λ×0.1 小。然而,随着λ 的增加,两个权重都会受到更大的惩罚,比如分别变为0.005和0.05。

在某个点上,优化算法可能会发现 w2低于指定阈值(如0.00001),此时优化算法会将w2设置为零,因为这样可以减少整体的正则化惩罚,而对损失函数的影响不大。

因此,即使 w2原本对模型有一定的贡献,它也可能因为L1正则化的惩罚而变为零。这就是“较小的权重会受到更大的影响”,因为在正则化的影响下,它们更容易被压缩到零,从而实现特征的选择和权重的稀疏性。

3.3、为什么压缩模型参数权重会解决线性回归模型的幻觉和过拟合

在在老猿CSDN的博文《人工智能基础概念3:模型陷阱、过拟合、模型幻觉》中介绍了过拟合和模型幻觉的概念和关系,过拟合是模型幻觉的一种表现,而模型参数过多导致模型过于复杂是导致过拟合和模型幻觉的主要原因,因此通过压缩模型中的权重参数就会简化模型,从而在一定程度上解决模型幻觉的问题。

四、小结

L1正则化通过给线性模型增加一个与权重参数的L1范数作为惩罚,并使得目标函数变为原线性模型加上λ倍惩罚,通过调节λ的值影响模型权重参数的值,最终压缩部分权重参数的值为0来减少部分特征(自变量)对模型的影响。

虽然L1正则化最初是为线性模型设计的,但其核心思想——通过正则化来选择重要的特征并减少模型复杂度——是可以应用于其他模型的。在实践中,这通常需要对L1正则化的原理进行适当的调整和扩展,以适应不同模型的特点和需求。

更多人工智能基础知识请参考专栏《人工智能基础知识》。

写博不易,敬请支持:

如果阅读本文于您有所获,敬请点赞、评论、收藏,谢谢大家的支持!

关于老猿的付费专栏

  1. 付费专栏《https://blog.csdn.net/laoyuanpython/category_9607725.html 使用PyQt开发图形界面Python应用》专门介绍基于Python的PyQt图形界面开发基础教程,对应文章目录为《 https://blog.csdn.net/LaoYuanPython/article/details/107580932 使用PyQt开发图形界面Python应用专栏目录》;
  2. 付费专栏《https://blog.csdn.net/laoyuanpython/category_10232926.html moviepy音视频开发专栏 )详细介绍moviepy音视频剪辑合成处理的类相关方法及使用相关方法进行相关剪辑合成场景的处理,对应文章目录为《https://blog.csdn.net/LaoYuanPython/article/details/107574583 moviepy音视频开发专栏文章目录》;
  3. 付费专栏《https://blog.csdn.net/laoyuanpython/category_10581071.html OpenCV-Python初学者疑难问题集》为《https://blog.csdn.net/laoyuanpython/category_9979286.html OpenCV-Python图形图像处理 》的伴生专栏,是笔者对OpenCV-Python图形图像处理学习中遇到的一些问题个人感悟的整合,相关资料基本上都是老猿反复研究的成果,有助于OpenCV-Python初学者比较深入地理解OpenCV,对应文章目录为《https://blog.csdn.net/LaoYuanPython/article/details/109713407 OpenCV-Python初学者疑难问题集专栏目录
  4. 付费专栏《https://blog.csdn.net/laoyuanpython/category_10762553.html Python爬虫入门 》站在一个互联网前端开发小白的角度介绍爬虫开发应知应会内容,包括爬虫入门的基础知识,以及爬取CSDN文章信息、博主信息、给文章点赞、评论等实战内容。

前两个专栏都适合有一定Python基础但无相关知识的小白读者学习,第三个专栏请大家结合《https://blog.csdn.net/laoyuanpython/category_9979286.html OpenCV-Python图形图像处理 》的学习使用。

对于缺乏Python基础的同仁,可以通过老猿的免费专栏《https://blog.csdn.net/laoyuanpython/category_9831699.html 专栏:Python基础教程目录)从零开始学习Python。

如果有兴趣也愿意支持老猿的读者,欢迎购买付费专栏。

老猿Python,跟老猿学Python!

☞ ░ 前往老猿Python博文目录 https://blog.csdn.net/LaoYuanPython

标签:权重,回归,正则,L1,范数,模型,向量,Lasso
From: https://blog.csdn.net/LaoYuanPython/article/details/137351559

相关文章

  • 回归预测 | Matlab基于CPO-GPR基于冠豪猪算法优化高斯过程回归的多输入单输出回归预测
    回归预测|Matlab基于CPO-GPR基于冠豪猪算法优化高斯过程回归的多输入单输出回归预测目录回归预测|Matlab基于CPO-GPR基于冠豪猪算法优化高斯过程回归的多输入单输出回归预测预测效果基本介绍程序设计参考资料预测效果基本介绍Matlab基于CPO-GPR基于......
  • 基于蜜獾算法优化的核极限学习机(KELM)回归预测
    基于蜜獾算法优化的核极限学习机(KELM)回归预测文章目录基于蜜獾算法优化的核极限学习机(KELM)回归预测1.KELM理论基础2.回归问题数据处理4.基于蜜獾算法优化的KELM5.测试结果6.Matlab代码摘要:本文利用蜜獾算法对核极限学习机(KELM)进行优化,并用于回归预测.1.KEL......
  • 【基于LSTM的多输出回归预测】MATLAB代码分享
    文章目录前言一、LSTM的基本原理二、多输出回归预测模型架构三、示例代码1.读入数据并划分数据集2.运行结果总结前言`在当前的数据驱动时代,预测未来的趋势、需求、资源分配等成为了许多行业关键决策的基石。长短期记忆网络(LongShort-TermMemory,LSTM)作为一种特......
  • 超强来袭 基于卷积神经网络结合双向长短记忆网络CNN-BiLSTM实现风电功率多输入单输出
     ✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,代码获取、论文复现及科研仿真合作可私信。......
  • 逻辑回归(Logistic Regression)详解
    逻辑回归是一种用于分类问题的机器学习算法,尤其是在二分类问题中应用广泛。它的名字虽然带有"回归",但实际上是一种分类算法。在本文中,我将详细解释逻辑回归的原理、方法和应用。1.逻辑回归的原理逻辑回归的原理基于统计学和概率论。其基本思想是通过对输入特征的线性组合......
  • 吴恩达2022机器学习专项课程(一) 4.6 运行梯度下降&第一周课程实验:线性回归的梯度下降
    问题预览/关键词更新梯度下降对模型拟合,等高线图,3d空间图的变化。什么是批量梯度下降。实验目标计算梯度运行梯度下降梯度下降迭代次数和成本函数的关系可视化模型预测在等高线图上的梯度下降学习率过大报错问题笔记1.模型拟合,等高线图,3d空间图的变化3.5课节有一样的图,......
  • 【六 (2)机器学习-机器学习建模步骤/kaggle房价回归实战】
    一、确定问题和目标:1、业务需求分析:与业务团队或相关利益方进行深入沟通,了解他们的需求和期望。分析业务流程,找出可能的瓶颈、机会或挑战。思考机器学习如何帮助解决这些问题或实现业务目标。2、问题定义:将业务需求转化为一个或多个具体的机器学习问题,例如分类、回归......
  • 1.4 - logistic回归
    1.模型理念对于求解二分类问题,寻找一个决策边界,使得不同类别的点在边界的两侧,并用点到决策边界的距离表示该点属于某个类别的 概率。点到决策面的距离d直接将点代入决策面公式即可;距离到概率的映射函数需要符合概率的公理化定义,选用Sigmoid函数,(多分类问题选用Softmax......
  • 关于Stata工具变量固定效应回归ivreghdfe包报错last estimates not found一步解决问题
            其实lastestimatesnotfound这个问题,不用这么麻烦。我也是研究了半天,最后发现可以根据ivreghdfe命令的作者在github上写的统一安装需要的那些命令来很方便快捷地解决。        这是ivreghdfe命令作者的Github主页:https://github.com/sergiocorreia/......
  • Python套索回归lasso、SCAD、LARS分析棒球运动员薪水3个实例合集|附数据代码
    全文链接:https://tecdat.cn/?p=35585原文出处:拓端数据部落公众号在数据科学和机器学习领域,回归分析是一种强大的工具,用于探索变量之间的关系并预测未来的结果。其中,套索回归(LassoRegression)是一种线性回归方法,特别适用于解决高维数据和过拟合问题。它通过引入正则化项来限制模......