首页 > 其他分享 >【神经网络】应对过拟合:权重衰减与均等范数约束条件

【神经网络】应对过拟合:权重衰减与均等范数约束条件

时间:2022-08-25 14:47:03浏览次数:51  
标签:约束条件 WD 模型 神经网络 拟合 范数 衰减

应对过拟合:权重衰减与均等范数约束条件

Outline

在神经网络中,常常出现过拟合问题。本文介绍了权重衰减以及其背后的原理(优化GBR上界),并在最后对其他应对过拟合的方式进行了讨论。

Introduction

在深度学习中,常常出现过拟合问题,导致模型的效能下降。

为了解决这个问题,这里提出了几种可能的方法,可以在不同场景中使用。

降低过拟合可以增加模型在测试集上的精确程度,提高模型准确率。

Methods

权重衰减(WD)

原理:

(1)从模型的复杂度上解释:更小的权值w,从某种意义上说,表示网络的复杂度更低,对数据的拟合更好(这个法则也叫做奥卡姆剃刀),而在实际应用中,也验证了这一点,L2正则化的效果往往好于未经正则化的效果。

(2)从数学方面的解释:过拟合的时候,拟合函数的系数往往非常大,为什么?如下图所示,过拟合,就是拟合函数需要顾忌每一个点,最终形成的拟合函数波动很大。在某些很小的区间里,函数值的变化很剧烈。这就意味着函数在某些小区间里的导数值(绝对值)非常大,由于自变量值可大可小,所以只有系数足够大,才能保证导数值很大。而正则化是通过约束参数的范数使其不要太大,所以可以在一定程度上减少过拟合情况。

均等范数约束条件(ENC)

参考文献[1]证明了WD是GBR(泛化界正则项)在单层线性模型中的特殊情况。

Results

WD

设维度

标签:约束条件,WD,模型,神经网络,拟合,范数,衰减
From: https://www.cnblogs.com/railgunRG/p/16622456.html

相关文章

  • [神经网络]softmax回归
    前言softmax回归为一种分类模型。基本原理  由于softmax回归也是一种线性叠加算法,且需要输出离散值。很自然地想到,可以取值最大的输出为置信输出。更进一步想到,如......
  • 《Python神经网络编程》PDF高清版下载,
                               《 Python神经网络编程》PDF高清版免费下载地址   内容简介  · · · · ......
  • 最小二乘法用于多项式的拟合及程序实现
    改写自:https://blog.csdn.net/piaoxuezhong/article/details/54973750 1#include<stdio.h>2#include"stdlib.h"3#include"math.h"4//#include<vect......
  • [神经网络]线性回归
    引言有时候,可以用线性模型模拟数据的分布情况。比如房价与面积之间的关系。示例假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。有了这个函数之后,我们要考......
  • 最小二乘法拟合椭圆(椭圆拟合线)
    转自:https://blog.csdn.net/weixin_39591047/article/details/87542496参考文章:最小二乘法拟合椭圆——MATLAB和Qt-C++实现https://blog.csdn.net/sinat_21107433/article......
  • 美团笔试(2022.08.20)拟合
    主要参考:牛客上分享的帖子以及力扣第72题编辑距离的题解首先用动态规划做是最合适的阶段:对A操作i次,对B操作j次确定dp数组的含义:从数组A【0-i】到与数组B【0-j】保持一致......
  • 六、神经网络训练的相关指标参数
    1.学习率的设置2.训练集和验证集准确度通过查看训练集和验证集的准确度,也可以侧面反应出过拟合的情况,在训练集准确率和验证集准确率中间的空隙指明了模型过拟合的程度......
  • 五、神经网络训练——数据预处理
    1.均值减法它对数据中每个独立特征减去平均值,从几何上可以理解为在每个维度上都将数据云的中心都迁移到原点。在numpy中,该操作可以通过代码X-=np.mean(X,axis=0)实现......
  • 吴恩达机器学习笔记|(4)过拟合问题及正则化(Overfitting&regularization)
    一、欠/过拟合问题(Underfitting/OverfittingProblem)欠拟合拟合偏差非常大,用于预测时误差也会非常大。过拟合方差非常大,即拟合曲线与训练数据拟合得非常好以至于......
  • 神经网络权重初始化方法He、Xavier初始化
     He初始化是何凯明等提出的一种鲁棒的神经网络参数初始化方法,动机同Xaviar初始化基本一致,都是为了保证信息在前向传播和反向传播过程中能够有效流动,使不同层的输入信号的......