• 2024-09-10[实践应用] 深度学习之激活函数
    文章总览:YuanDaiMa2048博客文章总览深度学习之激活函数激活函数基本概念分类常见的激活函数2.Tanh/双曲正切激活函数3.ReLU激活函数4.Softmax激活函数PyTorch中如何使用1.线性激活函数2.非线性激活函数SigmoidTanhReLULeakyReLUParametricReLU(PReLU)使用激
  • 2024-08-247-常见的激活函数
    1、Relu函数2、sigmoid函数3、tanh函数
  • 2024-08-05时间旅行者:LSTM算法的奥秘大揭秘!
    Hey小伙伴们,今天给大家带来一个超级有趣的主题——LSTM算法的基本结构和公式推导!
  • 2024-08-05补充:关于GRU的详细运作原理以及特殊的优化思路
    1.GRU的基本结构和运作原理1.1GRU的基本概念GatedRecurrentUnit(GRU)是一种简化版的循环神经网络(RNN),它通过引入门控机制来解决长期依赖问题,同时减少参数数量以降低计算复杂度。1.2GRU的结构详解GRU包含两个门控机制:更新门(updategate)和重置门(resetgat
  • 2024-07-183.2-LSTM的代码实现
    文章目录1LSTM结构整理2LSTM的代码实现2.1初始化和前向传播2.2反向传播3TimeLSTM层的实现3.1TimeLSTM层的结构3.2TimeLSTM层的代码实现3.2.1初始化3.2.2前向传播3.2.3反向传播4使用LSTM对语言模型建模4.1初始化4.2前向计算4.3反向传播4.4其他5在PTB数据集上
  • 2024-07-01激活函数(1)笔记
    ReLU函数最受欢迎的激活函数是修正线性单元(Rectifiedlinearunit,ReLU),因为它实现简单,同时在各种预测任务中表现良好。ReLU提供了一种非常简单的非线性变换。#导入PyTorch库importtorch#从d2l库中导入与PyTorch相关的模块(这里假设d2l是一个外部库或教程中定义的
  • 2024-06-15深度学习 - RNN训练过程推演
    1.数据准备字符序列“hello”转换为one-hot编码表示:输入:[‘h’,‘e’,‘l’,‘l’]输出:[‘e’,‘l’,‘l’,‘o’]2.初始化参数假设我们使用一个单层的RNN,隐藏层大小为2。初始参数如下:W