RNN
  • 2024-11-20RNN (循环神经网络 - 从mlp到rnn - 困惑度 - 梯度剪裁) + 代码实现 —— 笔记3.4《动手学深度学习》
    0.前言课程全部代码(pytorch版)已上传到附件本章节为原书第8章(循环神经网络),共分为7节,本篇是第4-6节:RNNRNN从零实现RNN简洁实现本节(4-6节)的代码位置为:chapter_recurrent-neural-networks/rnn.ipynbchapter_recurrent-neural-networks/rnn-scratch.ipynbchapte
  • 2024-11-20【淘汰9成NLP工程师的常识题】 LSTM 如何缓解 RNN 梯度消失的问题?
    NLP学习github项目:NLP项目实践:fasterai/nlp-project-practice介绍:该仓库围绕着NLP任务模型的设计、训练、优化、部署和应用,分享大模型算法工程师的日常工作和实战经验AI藏经阁:https://gitee.com/fasterai/ai-e-book介绍:该仓库主要分享了数百本AI领域电子书
  • 2024-11-14【简单的基于循环神经网络(RNN)的模型(深度学习经典代码实现)】
    importtorch#Code–Parametersinput_size=4hidden_size=4num_layers=1batch_size=1seq_len=5#Code–PrepareDataidx2char=['e','h','l','o']x_data=[1,0,2,2,3]y_data=[3,1,2,3,2]one_hot
  • 2024-11-13[Paper Reading] Fusing Monocular Images and Sparse IMU Signals for Real-time Human Motion Capture
    目录名称TL;DRMethodLocalPoseEstimationRNN-P1RNN-P2RNN-P3GlobalTranslationEstimationRNN-T1RNN-T2RNN-T3HiddenStateFeedbackMechanismExperiment效果可视化总结与发散相关链接名称link时间:23.09作者与单位:主页:https://github.com/shaohua-pan/RobustCapTL;DR
  • 2024-11-10门控循环单元GRU
    结构:特点:结构简单,参数较少结构图:对比LSTM:1.LSTM有三个门,而GRU只有两个门2.LSTM在左侧有两项输入,而GRU只有一项输入,将两项和合二为一合成一个部分3.LSTM中的参数数量很多(、、、等9个),而GRU中的参数少得多(、等6个)4.LSTM中的门为输入门、遗忘门、输出门,GRU的门为更新门和
  • 2024-11-08深度学习:循环神经网络(RNN)详解
    循环神经网络(RNN)详解**循环神经网络(RecurrentNeuralNetwork,RNN)**是一类能够处理序列数据的神经网络,其设计使得网络可以在每个时间步上保留先前时间步的信息。RNN通过在时间步之间共享参数,能够建模输入序列中元素的时序依赖关系。由于其递归结构,RNN在自然语言处理、语音
  • 2024-10-31模型的中间失忆特性是什么;有位置信息嵌入,为什么还会中间失意;模型中间失意怎么解决
    目录模型的中间失忆特性是什么有位置信息嵌入,为什么还会中间失意模型中间失意怎么解决模型的中间失忆特性是什么定义中间失忆特性模型的中间失忆特性是指在深度学习模型(如循环神经网络RNN、长短期记忆网络LSTM等序列模型)处理长序列数据时,随着序列长度的增加,模型会
  • 2024-10-29Transformer比RNN好在哪里
    一、RNN在翻译长句子的不足之处如果是翻译的简单句子,仅仅需要关注相邻的单词,例如“我爱你”这种只有主谓宾的简短句子,那用RNN足够了。但在现实生活中,经常会遇到很多超长的句子,而RNN无法记住那么多细节上的东西,最后只会翻译前面忘了后面,更不懂各种复杂的倒装句、状语从句该
  • 2024-10-27什么是循环神经网络(RNN)
    循环神经网络(RecurrentNeuralNetwork,RNN)是一种深度学习模型,专门设计用于处理序列数据和时间序列问题。它具有一种独特的结构,允许信息在网络内部进行循环传递,以处理前后相关性和时序性。RNN的关键特性是它具有内部循环结构,可以接受来自上一个时间步的输出作为当前时间步的输入。
  • 2024-10-24AI模型架构如(CNN)、(RNN)(LSTM、GRU)、(如BERT、GPT等)在不同领域中的具体应用
    AI模型架构如卷积神经网络(CNN)、循环神经网络(RNN)及其变体(如LSTM、GRU)、以及基于Transformer架构的模型(如BERT、GPT等)在现实生活中有广泛的应用。以下是这些模型在不同领域中的具体应用和形态表现:一、卷积神经网络(CNN)1.图像分类应用案例:手机中的人脸识别、社交媒体中的自
  • 2024-10-22时间序列预测(十)—长短期记忆网络(LSTM)
    目录一、LSTM结构二、LSTM核心思想三、LSTM分步演练(一)初始化1、权重和偏置初始化2、初始细胞状态和隐藏状态初始化(二)前向传播1、遗忘门计算(决定从上一时刻隐状态中丢弃多少信息)2、输入门及候选记忆元计算(决定存储多少选记忆元的新数据)3、记忆元更新4、输出门及隐状
  • 2024-10-20时间序列预测(六)——循环神经网络(RNN)
    目录一、RNN的基本原理1、正向传播(ForwardPass):2、计算损失(LossCalculation)3、反向传播——反向传播通过时间(BackpropagationThroughTime,BPTT)4、梯度更新:二、RNN的常用结构 1、N——N结构2、N——1结构3、1——N结构4、N——M结构(Encoder-Decoder,也称Seq2Seq)三
  • 2024-10-17【视频讲解】共享单车使用量预测:RNN, LSTM,GRU循环神经网络和传统机器学习
    全文链接:https://tecdat.cn/?p=37899原文出处:拓端数据部落公众号分析师:XuyanReng 随着城市化进程的加速,共享单车作为一种绿色、便捷的出行方式,在城市交通中扮演着日益重要的角色。准确预测共享单车的使用量对于优化资源配置、提高运营效率以及满足用户需求具有关键意义。一
  • 2024-10-14第十期机器学习基础 01深度学习基础
    一:机器学习和深度学习对比(一)传统机器学习什么是传统机器学习?传统机器学习是指一系列能够从数据中学习规律,并根据这些规律进行预测和决策的算法。它通常包括以下几种类型的算法:线性回归和逻辑回归:用于解决回归和分类问题----可以认为:逻辑回归是在线性回归基础上加上sigmod方法
  • 2024-10-10RNN的前向传播
    学习[#深度学习继卷积之后—RNN-CSDN博客]之后看会更加理解循环神经网络前向公式zt:t-1时刻的隐层状态(ht-1)乘上对应的隐藏状态权重矩阵(U)再加上t时刻输入的X和权重参数矩阵W相乘就是隐藏层的净输入 ht:对计算的zt添加一个激活函数tanh激活函数这里有个问题为什
  • 2024-10-09深度学习:循环神经网络RNN
    目录一、神经网络的历程1.传统神经网络存在的问题2.提出一种新的神经网络二、RNN基本结构1.RNN基本结构2.RNN的独特结构3.RNN的局限性一、神经网络的历程1.传统神经网络存在的问题无法训练出具有顺序的数据。模型搭建时没有考虑数据上下之间的关系。因为传统神经网
  • 2024-10-08长短期记忆(LSTM)网络是如何解决RNN中的长期依赖问题的?
    长短期记忆网络(LongShort-TermMemory,LSTM)是一种特殊的递归神经网络(RecurrentNeuralNetwork,RNN),它通过设计一种巧妙的架构来解决传统RNN在处理长期依赖问题时遇到的梯度消失或梯度爆炸问题。LSTM的关键创新在于其内部的记忆单元和三个门控机制:输入门、遗忘门和输出门,
  • 2024-10-08【AI学习】Mamba学习(四):从SSM开始
    Mamba的发展,是从SSM->HiPPO->S4->Mamba演化过来。所以,了解Mamba,得从SSM开始。SSM,状态空间模型SSM,就是状态空间模型。为什么需要SSM?查看三十年前的教科书,控制论的发展,让人们对控制系统不再只满足于研究输出量的变化,对于系统内部的状态变量同时感到兴趣,以便设计和控制这些
  • 2024-10-08《神经网络》—— 循环神经网络RNN(Recurrent Neural Network)
    文章目录一、RNN简单介绍二、RNN基本结构1.隐藏中的计算2.输出层的计算3.循环三、RNN优缺点1.优点2.缺点一、RNN简单介绍循环神经网络(RecurrentNeuralNetwork,RNN)是一种用于处理序列数据的神经网络架构。与传统的前馈神经网络(FeedforwardNeuralNetwork
  • 2024-10-08RNN(循环神经网络)简介及应用
    一、引言在深度学习领域,神经网络被广泛应用于各种任务,从图像识别到语音合成。但对于序列数据处理的任务,如自然语言处理(NLP)、语音识别或时间序列预测等,传统的前馈神经网络(FeedforwardNeuralNetworks)显得力不从心。这是因为序列数据中存在着时间上的依赖关系,即序列中的每个元
  • 2024-10-08(29-6-01)通过回测、ARIMA 和 GRU 预测股票价格:深度学习模型预测(1)
    29.8 深度学习模型预测对于股票市场这类序列数据,使用不考虑数据序列的模型进行预测可能会丢失数据中的重要信息。因此,在本项目中引入了递归神经网络(RNN),它能有效利用数据的序列信息进行预测。递归神经网络主要有三种类型:标准RNN、长短期记忆网络(LSTM)和门控递归单元(GRU)。标
  • 2024-09-18Transformer、RNN和SSM的相似性探究:揭示看似不相关的LLM架构之间的联系
    通过探索看似不相关的大语言模型(LLM)架构之间的潜在联系,我们可能为促进不同模型间的思想交流和提高整体效率开辟新的途径。尽管Mamba等线性循环神经网络(RNN)和状态空间模型(SSM)近来备受关注,Transformer架构仍然是LLM的主要支柱。这种格局可能即将发生变化:像Jamba、Samba和Gri
  • 2024-09-18Attention is all you need 论文阅读笔记
    AttentionisallyouneedTransformeronlybasedonattentionmechanisms,dispensingCNN,RNNIntroductionandBackgroundRNN必须将前一步生成的h
  • 2024-09-17跟着问题学10——RNN详解及代码实战
    1循环神经网络RecurrentNeuralNetwork什么是序列信息呢?通俗理解就是一段连续的信息,前后信息之间是有关系地,必须将不同时刻的信息放在一起理解。比如一句话,虽然可以拆分成多个词语,但是需要将这些词语连起来理解才能得到一句话的意思。RNN就是用来处理这些序列信息的任务
  • 2024-09-16Transformer-Attention机制
    出现Attention机制的原因:基于循环神经网络(RNN)的seq2seq模型,在处理长文本时遇到了挑战,而对长文本中不同位置的信息进行attention有助于提升RNN的模型效果。1seq2seq框架seq2seq:从一个文本序列得到一个新的文本序列。典型的seq2seq任务包括:机器翻译任务、文本摘要任务。简而言之就是