首页 > 编程语言 >Lnton羚通视频算法算力云平台【PyTorch】教程:torch.nn.ELU

Lnton羚通视频算法算力云平台【PyTorch】教程:torch.nn.ELU

时间:2023-08-28 15:33:24浏览次数:35  
标签:函数 nn torch PyTorch 激活 ELU elu

在PyTorch中,torch.nn.ELU代表指数线性单元(Exponential Linear Unit),是一种激活函数。ELU函数可以用来增加神经网络的非线性表达能力,使其具备更强的适应性。

ELU函数的定义如下:

elu(x) = x if x >= 0
         alpha * (exp(x) - 1) if x < 0

其中,x 是输入,alpha 是一个正数超参数,控制ELU函数在 x < 0 时的负半段斜率。常见的默认值为 alpha = 1.0

ELU函数在 x >= 0 时返回其本身,而在 x < 0 时采用指数增长的方式进行平滑。

在PyTorch中使用torch.nn.ELU函数可以很方便地将ELU作为激活函数应用到神经网络模型中。以下是一个示例:

import torch
import torch.nn as nn

# 定义一个包含ELU激活函数的全连接层
fc = nn.Linear(in_features=10, out_features=20)
elu = nn.ELU()

# 假设有一批输入张量 x
x = torch.randn(32, 10)

# 使用ELU作为激活函数进行前向传播
output = elu(fc(x))

Lnton羚通视频算法算力云平台【PyTorch】教程:torch.nn.ELU_激活函数

在这个示例中,我们首先定义了一个具有10个输入特征和20个输出特征的全连接层 fc。然后,我们创建了一个ELU实例 elu。最后,将输入张量 x 通过全连接层和ELU激活函数进行前向传播,得到输出张量 output。

Lnton 羚通视频算法算力云平台专注于音视频算法、算力、云平台的高科技人工智能, 公司基于视频分析技术、视频智能传输技术、远程监测技术以及智能语音融合技术等, 拥有多款可支持 ONVIF、RTSP、GB/T28181 等多协议、多路数的音视频智能分析服务器。

Lnton羚通视频算法算力云平台【PyTorch】教程:torch.nn.ELU_激活函数_02


标签:函数,nn,torch,PyTorch,激活,ELU,elu
From: https://blog.51cto.com/LNTON/7264373

相关文章

  • pytorch nn.LSTM模块参数详解
    nn.LSTM模块参数input_size:输入的维度hidden_size:h的维度num_layers:堆叠LSTM的层数,默认值为1bias:偏置,默认值:Truebatch_first:如果是True,则input为(batch,seq,input_size)。默认值为:False(seq_len,batch,input_size)bidirectional:是否双向传播,默认值为False 输入(in......
  • Innodb引擎中B+树一般有几层?能容纳多少数据量?
    1、页在MySQL中InnoDB存储引擎的最小存储单元是页(大小默认是16k,可通过参数设置)。页可用于存放B+树叶节点数据,也可用于存放B+树非叶节点的“键+指针”(也就是路径节点)。在查找数据时一次页的查找代表一次IO,一般B+树高大约为1~3层,所以通过主键索引查询通常只需要1~3次IO......
  • Netty 的 ChannelOption.SO_BACKLOG 知识点整理
    Netty的ChannelOption.SO_BACKLOG知识点整理 一个基于Netty的应用,在压力测试时,Socket请求数量一多,就发送失败,监测JVM内存大小比较稳定,猜测可能是ChannelOption.SO_BACKLOG这个配置导致的,设置的值是128。调整为1024后,连接失败的次数确实减少了一些,那么这个配置到......
  • 学习笔记:DSTAGNN中ST块的代码分析
    DSTAGNN模型可以看我上一个博客学习笔记:DSTAGNN:DynamicSpatial-TemporalAwareGraphNeuralNetworkforTrafficFlowForecasting这篇博客主要写了我对代码中ST块部分的阅读。写这篇模型的初衷,是这篇论文结构图和语言描述不太一致,再加上我想要学习怎么写一个时空预测的代......
  • DWR的注释(annotations)使用及反向调用(Reverse Ajax)
    先说说注释语法,省掉dwr.xml。(自从用了java5之后,现在越看一堆堆的配置文件越烦,越来越喜欢注释方式来的直接简单了)  首先下载最新的稳定版本的dwr.jar文件放到你的工程中。(还有需要其它的吗?不需要了,dwr就是这么简单)然后在web.xml中添加如下一段<!--DWRServlet--><servle......
  • 带你上手基于Pytorch和Transformers的中文NLP训练框架
    本文分享自华为云社区《全套解决方案:基于pytorch、transformers的中文NLP训练框架,支持大模型训练和文本生成,快速上手,海量训练数据》,作者:汀丶。1.简介目标:基于pytorch、transformers做中文领域的nlp开箱即用的训练框架,提供全套的训练、微调模型(包括大模型、文本转向量、文本生......
  • 简单的将pytorch模型部署到onnx
    1.创建一个pytorch模型这里我用的U2Net,直接加载好训练出的权重model=U2Net(class_nums=4)model.load_state_dict(torch.load(checkpoint_path))2.将pytorch模型转成onnx格式x=torcg.randn(1,3,512,512)withtorch.no_grad():torch.onnx.export(......
  • torch.argmax()函数-截至2023年8月28日
    argmax函数参数dim=0表示从列获取最大值索引,dim=1从行获取最大值索引,dim=-1从最后一个维度获取最大值索引[1]。举例importtorchd=torch.tensor([[9,7,6], [4,8,2],[5,10,0]])print(torch.argmax(d,dim=0))#结果应为9,10,6的所在列的索引==》0,2,0prin......
  • torch.sum()用法-截至2023年8月28日
    torch.sum()维度0,1,2。比如现在有\(3\times\2\times3\)的张量,理解为3个\(2\times3\)的矩阵。当dim=0,1,2时分别在哪个维度上相加[1]?下面是具体的矩阵\[[1,2,3]\\[4,5,6]\\\\[1,2,3]\\[4,5,6]\\\\[1,2,3]\\[4,5,6]\]在哪个维度相加,那个维度就去掉。\(3\times2\times3\)分别......
  • Netty源码学习3——Channel ,ChannelHandler,ChannelPipeline
    系列文章目录和关于我零丶引入在Netty源码学习2——NioEventLoop的执行中,我们学习了NioEventLoop是如何进行事件循环以及如何修复NIO空轮询的bug的,但是没有深入了解IO事件在netty中是如何被处理的,下面我们以服务端demo代码为例子,看下和IO事件处理密切的Channel如上在编写nett......