首页 > 其他分享 >BiLSTM介绍及代码实现

BiLSTM介绍及代码实现

时间:2022-09-23 16:35:09浏览次数:81  
标签:BiLSTM 代码 batch len 介绍 sentences sen LSTM size

BiLSTM介绍及代码实现

一、介绍

1.1 文章组织

本文简要介绍了BiLSTM的基本原理,并以句子级情感分类任务为例介绍为什么需要使用LSTM或BiLSTM进行建模。在文章的最后,我们给出在PyTorch下BiLSTM的实现代码,供读者参考。

1.2 情感分类任务

自然语言处理中情感分类任务是对给定文本进行情感倾向分类的任务,粗略来看可以认为其是分类任务中的一类。对于情感分类任务,目前通常的做法是先对词或者短语进行表示,再通过某种组合方式把句子中词的表示组合成句子的表示。最后,利用句子的表示对句子进行情感分类。

举一个对句子进行褒贬二分类的例子。

句子:我爱赛尔

情感标签:褒义

1.3 什么是LSTM和BiLSTM?

LSTM的全称是Long Short-Term Memory,它是RNN(Recurrent Neural Network)的一种。LSTM由于其设计的特点,非常适合用于对时序数据的建模,如文本数据。BiLSTM是Bi-directional Long Short-Term Memory的缩写,是由前向LSTM与后向LSTM组合而成。两者在自然语言处理任务中都常被用来建模上下文信息。

1.4 为什么使用LSTM与BiLSTM?

将词的表示组合成句子的表示,可以采用相加的方法,即将所有词的表示进行加和,或者取平均等方法,但是这些方法没有考虑到词语在句子中前后顺序。如句子“我不觉得他好”。“不”字是对后面“好”的否定,即该句子的情感极性是贬义。使用LSTM模型可以更好的捕捉到较长距离的依赖关系。因为LSTM通过训练过程可以学到记忆哪些信息和遗忘哪些信息。

但是利用LSTM对句子进行建模还存在一个问题:无法编码从后到前的信息。在更细粒度的分类时,如对于强程度的褒义、弱程度的褒义、中性、弱程度的贬义、强程度的贬义的五分类任务需要注意情感词、程度词、否定词之间的交互。举一个例子,“这个餐厅脏得不行,没有隔壁好”,这里的“不行”是对“脏”的程度的一种修饰,通过BiLSTM可以更好的捕捉双向的语义依赖。

二、BiLSTM原理简介

2.1 LSTM介绍

2.1.1 总体框架

LSTM模型是由时刻的输入词,细胞状态 ,临时细胞状态,隐层状态,遗忘门,记忆门,输出门组成。LSTM的计算过程可以概括为,通过对细胞状态中信息遗忘和记忆新的信息使得对后续时刻计算有用的信息得以传递,而无用的信息被丢弃,并在每个时间步都会输出隐层状态,其中遗忘,记忆与输出由通过上个时刻的隐层状态和当前输入计算出来的遗忘门,记忆门,输出门来控制。

总体框架如图1所示。

图1. LSTM总体框架

2.1.2 详细介绍计算过程

计算遗忘门,选择要遗忘的信息。

输入:前一时刻的隐层状态,当前时刻的输入词 

输出:遗忘门的值

图2. 计算遗忘门

计算记忆门,选择要记忆的信息。

输入:前一时刻的隐层状态,当前时刻的输入词 

输出:记忆门的值,临时细胞状态

图3. 计算记忆门和临时细胞状态

计算当前时刻细胞状态

输入:记忆门的值,遗忘门的值,临时细胞状态,上一刻细胞状态

输出:当前时刻细胞状态

图4. 计算当前时刻细胞状态计算输出门和当前时刻隐层状态

输入:前一时刻的隐层状态,当前时刻的输入词 ,当前时刻细胞状态

输出:输出门的值,隐层状态

图5. 计算输出门和当前时刻隐层状态

最终,我们可以得到与句子长度相同的隐层状态序列{, ..., }。

2.2 BiLSTM介绍

前向的LSTM与后向的LSTM结合成BiLSTM。比如,我们对“我爱中国”这句话进行编码,模型如图6所示。

图6. 双向LSTM编码句子前向的依次输入“我”,“爱”,“中国”得到三个向量{}。后向的依次输入“中国”,“爱”,“我”得到三个向量{}。最后将前向和后向的隐向量进行拼接得到{[], [], []},即{}。

对于情感分类任务来说,我们采用的句子的表示往往是[]。因为其包含了前向与后向的所有信息,如图7所示。

图7. 拼接向量用于情感分类

三、BiLSTM代码实现样例

3.1 模型搭建

使用PyTorch搭建BiLSTM样例代码。代码地址为https://github.com/albertwy/BiLSTM/。

  1. class BLSTM(nn.Module):

  2.    """

  3.        Implementation of BLSTM Concatenation for sentiment classification task

  4.    """

  5.  

  6.    def __init__(self, embeddings, input_dim, hidden_dim, num_layers, output_dim, max_len=40, dropout=0.5):

  7.        super(BLSTM, self).__init__()

  8.  

  9.        self.emb = nn.Embedding(num_embeddings=embeddings.size(0),

  10.                                embedding_dim=embeddings.size(1),

  11.                                padding_idx=0)

  12.        self.emb.weight = nn.Parameter(embeddings)

  13.  

  14.        self.input_dim = input_dim

  15.        self.hidden_dim = hidden_dim

  16.        self.output_dim = output_dim

  17.  

  18.        # sen encoder

  19.        self.sen_len = max_len

  20.        self.sen_rnn = nn.LSTM(input_size=input_dim,

  21.                               hidden_size=hidden_dim,

  22.                               num_layers=num_layers,

  23.                               dropout=dropout,

  24.                               batch_first=True,

  25.                               bidirectional=True)

  26.  

  27.        self.output = nn.Linear(2 * self.hidden_dim, output_dim)

  28.  

  29.    def bi_fetch(self, rnn_outs, seq_lengths, batch_size, max_len):

  30.        rnn_outs = rnn_outs.view(batch_size, max_len, 2, -1)

  31.  

  32.        # (batch_size, max_len, 1, -1)

  33.        fw_out = torch.index_select(rnn_outs, 2, Variable(torch.LongTensor([0])).cuda())

  34.        fw_out = fw_out.view(batch_size * max_len, -1)

  35.        bw_out = torch.index_select(rnn_outs, 2, Variable(torch.LongTensor([1])).cuda())

  36.        bw_out = bw_out.view(batch_size * max_len, -1)

  37.  

  38.        batch_range = Variable(torch.LongTensor(range(batch_size))).cuda() * max_len

  39.        batch_zeros = Variable(torch.zeros(batch_size).long()).cuda()

  40.  

  41.        fw_index = batch_range + seq_lengths.view(batch_size) - 1

  42.        fw_out = torch.index_select(fw_out, 0, fw_index)  # (batch_size, hid)

  43.  

  44.        bw_index = batch_range + batch_zeros

  45.        bw_out = torch.index_select(bw_out, 0, bw_index)

  46.  

  47.        outs = torch.cat([fw_out, bw_out], dim=1)

  48.        return outs

  49.  

  50.    def forward(self, sen_batch, sen_lengths, sen_mask_matrix):

  51.        """

  52.  

  53.        :param sen_batch: (batch, sen_length), tensor for sentence sequence

  54.        :param sen_lengths:

  55.        :param sen_mask_matrix:

  56.        :return:

  57.        """

  58.  

  59.        ''' Embedding Layer | Padding | Sequence_length 40'''

  60.        sen_batch = self.emb(sen_batch)

  61.  

  62.        batch_size = len(sen_batch)

  63.  

  64.        ''' Bi-LSTM Computation '''

  65.        sen_outs, _ = self.sen_rnn(sen_batch.view(batch_size, -1, self.input_dim))

  66.        sen_rnn = sen_outs.contiguous().view(batch_size, -1, 2 * self.hidden_dim)  # (batch, sen_len, 2*hid)

  67.  

  68.        ''' Fetch the truly last hidden layer of both sides

  69.        '''

  70.        sentence_batch = self.bi_fetch(sen_rnn, sen_lengths, batch_size, self.sen_len)  # (batch_size, 2*hid)

  71.  

  72.        representation = sentence_batch

  73.        out = self.output(representation)

  74.        out_prob = F.softmax(out.view(batch_size, -1))

  75.  

  76.        return out_prob

__init__()函数中对网络进行初始化,设定词向量维度,前向/后向LSTM中隐层向量的维度,还有要分类的类别数等。

bi_fetch()函数的作用是将拼接起来并返回拼接后的向量。由于使用了batch,所以需要使用句子长度用来定位开始padding时前一个时刻的输出的隐层向量。

forward()函数里进行前向计算,得到各个类别的概率值。

3.2 模型训练

  1. def train(model, training_data, args, optimizer, criterion):

  2.    model.train()

  3.  

  4.    batch_size = args.batch_size

  5.  

  6.    sentences, sentences_seqlen, sentences_mask, labels = training_data

  7.  

  8.    # print batch_size, len(sentences), len(labels)

  9.  

  10.    assert batch_size == len(sentences) == len(labels)

  11.  

  12.    ''' Prepare data and prediction'''

  13.    sentences_, sentences_seqlen_, sentences_mask_ = \

  14.        var_batch(args, batch_size, sentences, sentences_seqlen, sentences_mask)

  15.    labels_ = Variable(torch.LongTensor(labels))

  16.    if args.cuda:

  17.        labels_ = labels_.cuda()

  18.  

  19.    assert len(sentences) == len(labels)

  20.  

  21.    model.zero_grad()

  22.    probs = model(sentences_, sentences_seqlen_, sentences_mask_)

  23.    loss = criterion(probs.view(len(labels_), -1), labels_)

  24.  

  25.    loss.backward()

  26.     optimizer.step()

代码中training_data是一个batch的数据,其中包括输入的句子sentences(句子中每个词以词下标表示),输入句子的长度sentences_seqlen,输入的句子对应的情感类别labels。 训练模型前,先清空遗留的梯度值,再根据该batch数据计算出来的梯度进行更新模型。

  1.    model.zero_grad()

  2.    probs = model(sentences_, sentences_seqlen_, sentences_mask_)

  3.    loss = criterion(probs.view(len(labels_), -1), labels_)

  4.    loss.backward()

  5.    optimizer.step()

  6.  

3.3 模型测试

以下是进行模型测试的代码。

  1. def test(model, dataset, args, data_part="test"):

  2.    """

  3.  

  4.    :param model:

  5.    :param args:

  6.    :param dataset:

  7.    :param data_part:

  8.    :return:

  9.    """

  10.  

  11.    tvt_set = dataset[data_part]

  12.    tvt_set = yutils.YDataset(tvt_set["xIndexes"],

  13.                              tvt_set["yLabels"],

  14.                              to_pad=True, max_len=args.sen_max_len)

  15.  

  16.    test_set = tvt_set

  17.    sentences, sentences_seqlen, sentences_mask, labels = test_set.next_batch(len(test_set))

  18.  

  19.    assert len(test_set) == len(sentences) == len(labels)

  20.  

  21.    tic = time.time()

  22.  

  23.    model.eval()

  24.    ''' Prepare data and prediction'''

  25.    batch_size = len(sentences)

  26.    sentences_, sentences_seqlen_, sentences_mask_ = \

  27.        var_batch(args, batch_size, sentences, sentences_seqlen, sentences_mask)

  28.  

  29.    probs = model(sentences_, sentences_seqlen_, sentences_mask_)

  30.  

  31.    _, pred = torch.max(probs, dim=1)

  32.  

  33.    if args.cuda:

  34.        pred = pred.view(-1).cpu().data.numpy()

  35.    else:

  36.        pred = pred.view(-1).data.numpy()

  37.  

  38.    tit = time.time() - tic

  39.    print "  Predicting {:d} examples using {:5.4f} seconds".format(len(test_set), tit)

  40.  

  41.    labels = numpy.asarray(labels)

  42.    ''' log and return prf scores '''

  43.    accuracy = test_prf(pred, labels)

  44.  

  45.    return accuracy

  1. def cal_prf(pred, right, gold, formation=True, metric_type=""):

  2.    """

  3.    :param pred: predicted labels

  4.    :param right: predicting right labels

  5.    :param gold: gold labels

  6.    :param formation: whether format the float to 6 digits

  7.    :param metric_type:

  8.    :return: prf for each label

  9.    """

  10.  

  11.    num_class = len(pred)

  12.    precision = [0.0] * num_class

  13.    recall = [0.0] * num_class

  14.    f1_score = [0.0] * num_class

  15.  

  16.    for i in xrange(num_class):

  17.        ''' cal precision for each class: right / predict '''

  18.        precision[i] = 0 if pred[i] == 0 else 1.0 * right[i] / pred[i]

  19.  

  20.        ''' cal recall for each class: right / gold '''

  21.        recall[i] = 0 if gold[i] == 0 else 1.0 * right[i] / gold[i]

  22.  

  23.        ''' cal recall for each class: 2 pr / (p+r) '''

  24.        f1_score[i] = 0 if precision[i] == 0 or recall[i] == 0 \

  25.            else 2.0 * (precision[i] * recall[i]) / (precision[i] + recall[i])

  26.  

  27.        if formation:

  28.            precision[i] = precision[i].__format__(".6f")

  29.            recall[i] = recall[i].__format__(".6f")

  30.            f1_score[i] = f1_score[i].__format__(".6f")

  31.  

  32.    ''' PRF for each label or PRF for all labels '''

  33.    if metric_type == "macro":

  34.        precision = sum(precision) / len(precision)

  35.        recall = sum(recall) / len(recall)

  36.        f1_score = 2 * precision * recall / (precision + recall) if (precision + recall) > 0 else 0

  37.    elif metric_type == "micro":

  38.        precision = 1.0 * sum(right) / sum(pred) if sum(pred) > 0 else 0

  39.        recall = 1.0 * sum(right) / sum(gold) if sum(recall) > 0 else 0

  40.        f1_score = 2 * precision * recall / (precision + recall) if (precision + recall) > 0 else 0

  41.  

  42.    return precision, recall, f1_score

四、总结

本文中,我们结合情感分类任务介绍了LSTM以及BiLSTM的基本原理,并给出一个BiLSTM样例代码。除了情感分类任务,LSTM与BiLSTM在自然语言处理领域的其它任务上也得到了广泛应用,如机器翻译任务中使用其进行源语言的编码和目标语言的解码,机器阅读理解任务中使用其对文章和问题的编码等。

五、参考资料

http://colah.github.io/posts/2015-08-Understanding-LSTMs/

标签:BiLSTM,代码,batch,len,介绍,sentences,sen,LSTM,size
From: https://www.cnblogs.com/chenyujie/p/16723190.html

相关文章

  • C#中使用Invoke和BeginInvoke跨线程更新UI控件示例代码
    在多线程开发过程中,有时候需要更新UI控件内容,但是在c#多线程Task、Thread、BackgroundWork中不能直接更新UI控件,否则会报调用线程不能访问此对象,因为它由另一个线程拥有The......
  • vue3源码学习12-编译three-生成代码
    之前两节看了模板生成AST和AST内部转化,这一节看最后的生成代码,编译配置是mode为module,prefixIdentifiers开启,hoistStatic开启,其他配置均不开启,先看示例:源代码:<divclass=......
  • CPU 是怎么认识代码的?_转载
    一篇很好的文章                      https://www.zhihu.com/question/348237008 ......
  • 入园介绍
    我是信息与工程学院的一名大三学生,所学的专业是软件工程,到目前为止,已学Java,c#语言、sqlserver等。平时没事的时候喜欢跑跑步、健健身,因为只有在运动时能感觉到自己在变强......
  • Three.js进阶之旅:基础介绍(二)
    本文为稀土金块技术社区的第一篇署名文章。14日内禁止转载,14日后禁止擅自转载。侵权必究!概括专栏上一篇《Three.js进阶之旅:基础介绍(上)》主要解释三.js环境建设......
  • 自我介绍
       大家好,我叫李祖念,来自于湖南衡阳,那是一个很美丽的城市,五大名山之一的衡山就在那边。如果大家去衡阳游玩的话衡山无疑是个好地方。我比较喜欢听音乐和看剧,像比较常......
  • 小程序共享数据2 - 代码实例
    import{HYEventStore}from"hy-event-store"import{getPlaylistDetail}from"../services/music"constrecommendStore=newHYEventStore({state:{......
  • awk一行代码将平面在极折赤平投影上
    awk一行代码在极折赤平投影上画平面最近用gmt6在极折赤平投影上投点和线的时候遇到了一些问题,于是把脚本贴上来。输入的三列数据为平面的法向量坐标gmtbegintestpng......
  • 自我介绍+职业规划
    我自信,我能行!我是乐观开朗的彭莞欣。我是地地道道湖南人。喜欢研究自己感兴趣的东西,会愿意花费时间去了解,学习。我热爱生活,喜欢旅游游玩,欣赏大自然打造出来的自然风景,感......
  • 小程序共享数据 - 代码实例
    //1.引入storeconst{HYEventStore}=require("hy-event-store")//引入axiosconstaxios=require("axios")//创建一个仓库constuserStore=newHYEventSt......