首页 > 其他分享 >[深度学习]神经网络

[深度学习]神经网络

时间:2024-09-23 20:23:20浏览次数:13  
标签:plt 15 sigmoid torch 学习 神经网络 深度 show import

 1 人工神经网络

全连接神经网络

2 激活函数

  • 隐藏层激活函数由人决定
  • 输出层激活函数由解决的任务决定:
    • 二分类:sigmoid
    • 多分类:softmax
    • 回归:不加激活(恒等激活identify)

2.1 sigmoid激活函数

  • x为加权和
  • 小于-6或者大于6,梯度接近于0,会出现梯度消失的问题
  • 即使取值 [-6,6] ,网络超过5层,也会发生梯度消失

import torch
import matplotlib.pyplot as plt
import os

os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"
# sigmoid
x = torch.linspace(-15, 15, 1000)
y = torch.sigmoid(x)
plt.plot(x, y)
plt.grid()
plt.show()

x = torch.linspace(-15, 15, 1000, requires_grad=True)
torch.sigmoid(x).sum().backward()
plt.plot(x.detach(), x.grad)
plt.grid()
plt.show()

2.2 tanh激活函数

  • 只在RNN使用

import torch
import matplotlib.pyplot as plt
import os

os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"
# sigmoid
x = torch.linspace(-15, 15, 1000)
y = torch.tanh(x)
plt.plot(x, y)
plt.grid()
plt.show()

plt.show()
#%%
x = torch.linspace(-15, 15, 1000, requires_grad=True)
torch.tanh(x).sum().backward()
plt.plot(x.detach(), x.grad)
plt.grid()
plt.show()

2.3 ReLU激活函数



标签:plt,15,sigmoid,torch,学习,神经网络,深度,show,import
From: https://blog.csdn.net/Letmooning/article/details/142364961

相关文章

  • 【第十六章:Sentosa_DSML社区版-机器学习之生存分析】
    【第十六章:Sentosa_DSML社区版-机器学习之生存分析】16.1加速失效时间回归1.算子介绍        加速失效时间回归模型Acceleratedfailuretime(AFT)是一个监督型参数化的回归模型,它可以处理删失数据。它描述了一个生存时间的对数模型,所以它通常被称为生存分析的对......
  • python+flask计算机毕业设计基于微信小程序的技能交换学习平台(程序+开题+论文)
    文件加密系统的设计与实现tp835本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。系统程序文件列表开题报告内容研究背景随着互联网技术的飞速发展和智能手机的普及,移动学习已成为当代社会不可或缺的一部分,尤其是微信小程序凭借......