首页 > 其他分享 >卷积神经网络-激活函数

卷积神经网络-激活函数

时间:2024-04-11 18:35:55浏览次数:23  
标签:函数 映射 卷积 ReLU 神经网络 线性 激活

原文链接:https://zhuanlan.zhihu.com/p/508741909?utm_id=0、https://zhuanlan.zhihu.com/p/476373735?utm_id=0、https://blog.csdn.net/purple_love/article/details/134620930

https://www.zhihu.com/question/60650016/answer/2441796198?utm_id=0

卷积神经网络中的卷积和池化等操作得到的输出是线性的,激活函数可以把非线性因素引入到深层网络中,让深层网络更有意义。能够更好的映射特征去除数据中的冗余。没有激活函数的每层都相当于矩阵相乘。就算你叠加了若干层之后,无非还是个矩阵相乘罢了。如果不使用激活函数,则输出信号仅是一个简单的线性函数。线性函数一个一级多项式,线性方程的复杂度有限,从数据中学习复杂函数映射的能力很小。没有激活函数,神经网络将无法学习和模拟其他复杂类型的数据,例如图像、视频、音频、语音等。3.激活函数可以把当前特征空间通过一定的线性映射转换到另一个空间,让数据能够更好的被分类。

1.假若网络中全部是线性部件,那么线性的组合还是线性,与单独一个线性分类器无异。这样就做不到用非线性来逼近任意函数。2.使用非线性激活函数 ,以便使网络更加强大,增加它的能力,使它可以学习复杂的事物,复杂的表单数据,以及表示输入输出之间非线性的复杂的任意函数映射。使用非线性激活函数,能够从输入输出之间生成非线性映射。   在卷积神经网络中经常用到的激活函数有:sigmoid 激活函数、tanh 激活函数、ReLU 激活函数以及 Leaky ReLU 函数等。

sigmoid/tanh比较常见于全连接层,后者relu常见于卷积层。

sigmoid 函数公式如上式所示,函数图像如图 2.16 所示。该函数能够把变量映射到[0,1]区间,所以一般是用来处理二分类的问题。

Sigmoid 公式如下:

 

 

 2、Tanh 函数改善了 Sigmoid 函数变化过于平缓的问题,是将变量映射到[-1,1]区间,Tanh 计算公式如下:

 

 

 3、ReLU 函数的优点是收敛速度非常快。当输入值为负数时,梯度也变为 0,容易导致神经元坏死,所以需要用较小的学习率对网络进行训练。

因为 sigmoid 和 tanh 函数在反向传播中常常因为值过小而造成梯度消失,ReLU 函数能够避免这个问题,ReLU 是“修正线性单元”, ReLU 函数的表达式如下式所示:ReLU 激活函数公式如下:

函数如下图所示,从图中可以看出 ReLU 函数不是连续的,属于分段函数。当 x <0时, f(x)值为 0,当 x >0 时, f(x)等于 x ,因此不会出现梯度消失的情况。与 sigmoid、tanh 激活函数相比,ReLU 函数当输入小于 0 时梯度等于 0,这时神经元不会被激活,所以在某一段时间里只有部分神经元会被激活,在反向传播过程中收敛速度会更快。

 

 4、Leaky ReLU 是在 ReLU 的基础上改进的,虽然可以避免神经元坏死,但是增加了计算量和参数量。

因为 ReLU 函数当输入在 x 轴的负半轴时,会导致部分神经元失活。针对这个问题,研究人员又提出了改进函数—Leaky ReLU 激活函数。该函数的数学表达式如下式所示:

 Leaky ReLU 和 ReLU 函数相比,主要的变化是在 x 的负半轴值不再为 0,而是有一定斜率的直线,a 值一般设为 0.01,值不是固定的,是人为设置的超参数。函数的图像如下图所示。

 

标签:函数,映射,卷积,ReLU,神经网络,线性,激活
From: https://www.cnblogs.com/Dongmy/p/18129835

相关文章

  • 卷积神经网络中池化层的详细介绍
    原文链接:https://blog.csdn.net/a486259/article/details/131311587https://zhuanlan.zhihu.com/p/476242144池化层的本质是一个下采样,因为数据经过卷积之后维度越来越高,而且特征图没有多大改变,在连续多个卷积之后,会产生一个很大的参数量,不仅会大大的增加网络训练的难度,还容易造......
  • 深度学习-nlp-循环神经网络RNN--69
    目录1.概述2.RNN的模型参考:https://zhuanlan.zhihu.com/p/308449051.概述输出会反馈到输入的神经网络:循环神经网络(RecurrentNeuralNetworks,以下简称RNN),它广泛的用于自然语言处理中的语音识别,手写书别以及机器翻译等领域。在前面讲到的DNN和CNN中,训练样本的输入和输出......
  • 数据是一维数据,利用tensorflow深度学习框架,写一个带自注意力机制的卷积神经网络,并进行
    下面是一个使用TensorFlow框架的带有自注意力机制的卷积神经网络(Self-AttentionConvolutionalNeuralNetwork)的示例代码,包括数据处理、模型定义和训练过程:importtensorflowastffromtensorflow.keras.layersimportConv1D,Dense,GlobalMaxPooling1D,Concatenate#......
  • 1*1卷积核的作用
    1*1卷积核是卷积神经网络中的一种特殊类型的卷积核。它可以用于以下几个方面:降维:通过使用1*1卷积核,可以将输入特征图的通道数进行降维。这对于减少模型参数和计算量非常有用,特别是在深层网络中。通过降维,可以减少后续层的计算负担。增加非线性:1*1卷积核可以引入非线性变......
  • 神经网络背后的数学原理
    原文地址:TheMathBehindNeuralNetworks2024年3月29日深入研究现代人工智能的支柱——神经网络,了解其数学原理,从头开始实现它,并探索其应用。神经网络是人工智能(AI)的核心,为从发现照片中的物体到翻译语言的各种应用提供动力。在本文中,我们将深入探讨神经网络是什么,它......
  • Guitar Pro 8中文破解版 2024最新安装激活教程 Guitar Pro8无需许可证 Guitar Pro 8百
    GuitarPro8这款软件是吉他爱好者们的必备之选,它以其卓越的功能和优势,全面覆盖学习演奏和绘谱创作的需求,帮助吉他爱好者们更好地提升自己的技能。GuitarPro8中文破解版是一款专门针对吉他、五弦琴、以及贝斯爱好者打造而成的阅读器和编辑器软件,是系列软件的最新版本。这款软......
  • 高创新,预测方向小论文有救了!霜冰优化算法+卷积神经网络+注意力机制+LSTM(附matlab代码
    专题推荐:论文推荐,代码分享,视角(点击即可跳转)所有链接建议使用电脑端打开,手机端打开较慢【代码推荐购买指南】电力系统运行优化与规划、时间序列预测、回归分类预测matlab代码公众号历史推文合集23.3.21(电力系统前沿视角/预测和优化方向matlab代码/电力系统优秀论文推荐......
  • 大数据技术与应用课堂测试 -神经网络计算过程
    石家庄铁道大学2024年春季  2021级大数据技术与应用课堂测试-神经网络计算过程课程名称: 大数据技术与应用  任课教师:王建民      1、用自己的话说明深度学习训练三部群正向传播,反向传播,梯度下降的基本功能和原理。 (1)正向传播是输入数据通过神经网络,从输入层......
  • 神经网络课堂测试
    石家庄铁道大学2024年春季  2021级大数据技术与应用课堂测试-神经网络计算过程课程名称:大数据技术与应用 任课教师:王建民      1、用自己的话说明深度学习训练三部群正向传播,反向传播,梯度下降的基本功能和原理。         2、请问人工......
  • 2023 NIPS A*Net: A Scalable Path-based Reasoning Approachfor Knowledge Graphs 知
    文章链接原文:b9e98316cb72fee82cc1160da5810abc-Paper-Conference.pdf(neurips.cc)代码:https://github.com/DeepGraphLearning/AStarNet一、动机与贡献为了使路径推理方法适用于大规模图上的归纳推理任务,文章改进了路径信息获取的方法。路径推理方法较好的归纳推理能力......