• 2024-05-25基于附带Attention机制的seq2seq模型架构实现英译法的案例
    模型架构先上图我们这里选用GRU来实现该任务,因此上图的十个方框框都是GRU块,如第二张图,放第一张图主要是强调编码器的输出是作用在解码器每一次输入的观点,具体的详细流程图将在代码实现部分给出。编码阶段1.准备工作要用到的数据集点此下载,备用地址,点击下载导入相关的
  • 2024-03-19seq2seq项目详解
    一、seq2seq和encoder-decoder关系seq2seq是从解决问题的目的角度来说的,利用的框架是encoder-decoder 二、项目例子比如我们有两个文件letters_source.txt和letters_target.txt,他们行数一致,也就是我们的训练集合,他们每一行互应(这两个文件同一行彼此长度可以不一致:比如中
  • 2023-12-26基于seq2seq模型实现英译法
    一、 选题背景机器翻译的发展主要分为三个阶段:基于规则的机器翻译;基于统计的机器翻译;基于人工神经网络的机器翻译。现在神经机器翻译的主流模型是编码器-解码器模型结构。该模型由编码器与解码器两部分组成,编码器是一个循环神经网络(RNN),输入是一个词语的序列,每次向RNN单元输入一
  • 2023-12-26基于seq2seq模型实现英译法02
    一、 模型设计模型的构建需要依次实现其嵌入层(embedding)、编码器(encoder)、解码器(decoder)等部分。下面以python3.6+pytorch1.3.1为例,给出了各部分的核心代码。代码4-1基于GRU的编码器classEncoderRNN(nn.Module):def__init__(self,input_size,hidden_size):super(EncoderR
  • 2023-10-20《动手学深度学习 Pytorch版》 9.7 序列到序列学习(seq2seq)
    循环神经网络编码器使用长度可变的序列作为输入,将其编码到循环神经网络编码器固定形状的隐状态中。为了连续生成输出序列的词元,独立的循环神经网络解码器是基于输入序列的编码信息和输出序列已经看见的或者生成的词元来预测下一个词元。要点:“<eos>”表示序列结束词元,一旦输
  • 2023-06-09N6、seq2seq翻译实战-Pytorch复现
  • 2023-05-25N5、seq2seq详解
  • 2023-05-18NLP中的Autoencoder、Autoregressive、seq2seq模型区分
    自回归、自编码器、seq2seqAutoregressiveLM特点:自回归语言模型按照特定的顺序一次生成一个token。自回归模型是单向的语言模型,适合用于文本生成。训练方式:给定之前所有的token,预测下一个token是什么。代表模型:GPT。AutoencoderLM特点:自编码器语言模型通常用于denoisin
  • 2023-04-12seq2seq中的注意力机制
    seq2seq中的注意力机制解决了长期梯度消失的问题,LSTM只解决了一部分长短期问题。transformer中采用的自注意力机制多少借鉴该方法,其最核心的公式如下图所示。Attention机制详解(一)——Seq2Seq中的Attention-知乎(zhihu.com)Q、K、V分别代表询问、键值以及数据值,本质就是根据
  • 2023-03-19seq2seq模型案例分析
    1seq2seq模型简介seq2seq模型是一种基于【Encoder-Decoder】(编码器-解码器)框架的神经网络模型,广泛应用于自然语言翻译、人机对话等领域。目前,【seq2seq+attention】(注
  • 2023-03-17Attention与SelfAttention
    目录Seq2Seq+AttentionAttention的原理方法一(Usedintheoriginalpaper)方法二(morepopular,thesametoTransformer)SummarySelfAttentionSimpleRNN与Attention当前状
  • 2023-03-03万事皆可Seq2Seq
    转自:https://kexue.fm/archives/7867以T5的预训练为例,其包含的无监督和有监督两部分都改成了Seq2Seq模式:无监督部分使用完形填空的形式输入:明月几时有,[M0]问青天,不知
  • 2023-02-08一点seq2seq的笔记
    一点seq2seq的笔记Date:2023-02-08T21:33:00+08:00毕设,看了点神经网络的内容。RNN的输入是asequenceofvector,感觉RNN像在训练一个cell,喂给cell一个vector
  • 2022-12-07[转]Transformers使用
    Transformers是由HuggingFace开发的一个NLP包,支持加载目前绝大部分的预训练模型。随着BERT、GPT等大规模语言模型的兴起,越来越多的公司和研究者采用Transformers
  • 2022-10-23【759】seq2seq(编码器和解码器)和注意力机制
    参考:动手学深度学习第十八课:seq2seq(编码器和解码器)和注意力机制以机器翻译作为示例讲解的,相关笔记如下:Encoder与Decoder之间的关联,可以是最后的隐含层,或者不同的Attenti
  • 2022-10-09NLP之基于Seq2Seq和注意力机制的句子翻译
    Seq2Seq(Attention)@目录Seq2Seq(Attention)1.理论1.1机器翻译1.1.1模型输出结果处理1.1.2BLEU得分1.2注意力模型1.2.1Attention模型1.2.2Seq2Seq(Attention)模型结
  • 2022-09-29基于Seq2Seq模型自动生成春联
    机器学习AI算法工程  公众号:datayx一、【数据集构造】诗词歌句属于自然语言一部分,对于计算机来说自然需要对数据进行数字化处理。其中步骤主要分成分词、编码、数据集输