首页 > 其他分享 >TensorFlow11.5 循环神经网络RNN-LSTM、LSTM实战

TensorFlow11.5 循环神经网络RNN-LSTM、LSTM实战

时间:2023-06-26 23:56:43浏览次数:33  
标签:这个 TensorFlow11.5 RNN 梯度 LSTM 忘记 就是

LSTM的产生

我们之前在求RNN的loss的时候很容易出现梯度弥散或者梯度爆炸。这个LSTM的出现很大程度上减少了梯度弥散的情况。
image
还有一个很重要的就是RNN只能够记住一个比较短的序列,如果一个句子单词很多的话,它学到最后一个的时候可能它的前面的就忘记了。而这个LSTM能够改善这问题它能够学习一个比较长的序列。之前RNN是short-term-memory 加上这个long,就是long-short-term-memory就是这个LSTM。

之前的RNN:
image
image
我们在时间这个维度上展开就是这样的。
image

LSTM原理

image
这个门只是一个比喻。
image
image
这里相乘的符号就是一个信息的过滤,然后相加的符号就是一个信息的融合。

第一道门:忘记门
image
第二道门:输入门
image
image
第三道门:输出门
image

总的:
image
image

LSTM设计的核心就是这三道门,这有点像一个逻辑单元。
image
在这里我们会发现
1.如果输入门=0(关上),忘记门=1(打开)的话,这里会记住这个先前的,忘记现在的,也就是\(C_t\)==\(C_{t-1}\)。
2.如果我们的输入门=1(打开),忘记门=1(打开)的话。他会添加上先前的值
3.如果我们的输入门=0(关闭),忘记门=0(关闭)的话。这个\(C_t\)=0+0,它就会清除掉这个value。
4.如果我们的输入门=1(打开),忘记门=0(关闭)的话。他就会用这个新建完全覆盖掉这个解。
然后这个输出门就是他也可以有选择的输出,不一定全部输出。

为什么LSTM可以解决这个梯度弥散的现象?
image

这个LSTM它没有\(W_{hh}^k\)他没有这个K次方出现,而他的梯度是一些因子相加,相互之间有制约性。最主要的就是它没有这个\(W_{hh}^k\)。
image

LSTM实战

LSTM
在之前的RNN情感问题分类的基础上改变的。

GRU

  • simpler
  • lower computation cost

标签:这个,TensorFlow11.5,RNN,梯度,LSTM,忘记,就是
From: https://www.cnblogs.com/lipu123/p/17503958.html

相关文章

  • TensorFlow11.3 循环神经网络RNN-情感分类实战
    这个就是好评和差评的一个分类。这个输入一般\(h_0\)全为0.要想实现这个结构有两种方案:SimpleRNNCell(这个更接近原理)singlelayermulti-layersRNNCell(这个方便使用)1.加载数据(x_train,y_train),(x_test,y_test)=keras.datasets.imdb.load_data(num_words=1000)#......
  • TensorFlow11.2 循环神经网络RNN-循环神经网络、RNN-layer实现
    循环神经网络SentimentAnalysis(情感分析)类似于淘宝的好评还是差评,我们比较直观的一个方法就是:这里不好的是:Downsides:1.Longsentence100+wordstoomuchparameters[w,b]。就是比如说我们有100个单词,会产生很多个w,b,参数太多了。2.Nocontextinformation(没有语......
  • TensorFlow11.1 循环神经网络RNN01-序列表达方法
    在自然界中除了位置相关的信息(图片)以外,还用一种存在非常广泛的类型,就是时间轴上的数据,比如说序列信号,语音信号,聊天文字。就是有先后顺序。对于下面这个:不如说我们输入有10个句子,每个句子都有4个单词,然后我们怎么把这些句子转化为具体的数值呢。如果一个表示方法能够很好的表示这......
  • RNN预测模型做多输入单输出预测模型,直接替换数据就可以用。
    RNN预测模型做多输入单输出预测模型,直接替换数据就可以用。程序语言是matlab,需求最低版本为2021及以上。程序可以出真实值和预测值对比图,线性拟合图,可打印多种评价指标。PS:以下效果图为测试数据的效果图,主要目的是为了显示程序运行可以出的结果图,具体预测效果以个人的具体数据......
  • 循环神经网络 - RNN
    在上一篇文章中,介绍了卷积神经网络(CNN),CNN在图像识别中有着强大、广泛的应用,但有一些场景用CNN却无法得到有效地解决,例如:语音识别,要按顺序处理每一帧的声音信息,有些结果需要根据上下文进行识别;自然语言处理,要依次读取各个单词,识别某段文字的语义;这些场景都有一个特点,就是都与时间序......
  • 基于LSTM深度学习网络的疾病发作检测算法matlab仿真
    1.算法仿真效果matlab2022a仿真结果如下:2.算法涉及理论知识概要长短期记忆网络(LSTM,LongShort-TermMemory)是一种时间循环神经网络,是为了解决一般的RNN(循环神经网络)存在的长期依赖问题而专门设计出来的,所有的RNN都具有一种重复神经网络模块的链式形式。在标准RNN中,这个重复的结......
  • 基于LSTM深度学习网络的疾病发作检测算法matlab仿真
    1.算法仿真效果matlab2022a仿真结果如下: 2.算法涉及理论知识概要      长短期记忆网络(LSTM,LongShort-TermMemory)是一种时间循环神经网络,是为了解决一般的RNN(循环神经网络)存在的长期依赖问题而专门设计出来的,所有的RNN都具有一种重复神经网络模块的链式形式。在标准R......
  • 三大特征提取器(RNN/CNN/Transformer)
    三大特征提取器-RNN、CNN和Transformer#简介#近年来,深度学习在各个NLP任务中都取得了SOTA结果。这一节,我们先了解一下现阶段在自然语言处理领域最常用的特征抽取结构。本文部分参考张俊林老师的文章《放弃幻想,全面拥抱Transformer:自然语言处理三大特征抽取器(CNN/RNN/TF)比较......
  • 了解基于模型的元学习:Learning to Learn优化策略和Meta-Learner LSTM
    摘要:本文主要为大家讲解基于模型的元学习中的LearningtoLearn优化策略和Meta-LearnerLSTM。本文分享自华为云社区《深度学习应用篇-元学习[16]:基于模型的元学习-LearningtoLearn优化策略、Meta-LearnerLSTM》,作者:汀丶。1.LearningtoLearnLearningtoLearnbyGradien......
  • RNN循环神经网络 、LSTM长短期记忆网络实现时间序列长期利率预测|附代码数据
    在Tensorflow之上运行的综合库,具有CPU和GPU功能本文将演示如何在R中使用LSTM实现时间序列预测。简单的介绍时间序列涉及按时间顺序收集的数据。我用xt∈R表示单变量数据,其中t∈T是观察数据时的时间索引。时间t在T=Z的情况下可以是离散的,或者在T=R的情况下......