首页 > 其他分享 >论文阅读:BERT-Based Chinese Relation Extraction for Public Security

论文阅读:BERT-Based Chinese Relation Extraction for Public Security

时间:2024-07-29 10:17:22浏览次数:13  
标签:BERT 嵌入 Based 特征向量 Chinese 模型 embedding 句子

模型框架

包含一个BERT模型层(嵌入+编码+池化->得到句子的特征向量)、一个Dropout层(防止过拟合)。

基于BERT的预训练模型

BERT模型是通过注意力机制对训练集进行处理。然后,通过Embedding层Encoder层加载预训练的词向量。 最后,Pooling 层使用 BERT 模型来训练两个句子。

BERT嵌入层

输入层中,输入数据首先通过BERT嵌入部分,将每个单词转换为\(embedding_{word}\)、\(embedding_{position}\)和\(embedding_{token_type}\)。

\[E = embedding_{word} + embedding_{position} + embedding_{token_type}. \]

实体对位置嵌入:在使用令牌级别特征提取句子后,实体对以矩阵的形式嵌入了位置信息。(对角线为位置信息的单位矩阵)
然后,将句子的特征向量矩阵新生成的实体对位置矩阵相乘,就可以得到带有实体对位置信息的句子特征向量。

BERT编码层

BERT使用Transformer Encoder作为语言模型,Transformer模型采用Attention机制来计算输入和输出之间的关系。(Q、K、V)

BERT池化层

这是一个激活函数,它执行线性处理并使用 Tanh() 来池化 BERT 编码器的输出:

\[P = MA_{pool}^T + b_{pool} \]

\[W_{token} = tanh(P) = \frac{e^P - e^{-P}}{e^P + e^{-P}} \]

Dropout层

然后进行dropout - layerNorm - ReLU -线性操作。

数据集

一种面向中国文学文本的话语级命名实体识别与关系抽取数据集:Xu J, Wen J, Sun X, et al. A discourse-level named entity recognition and relation extraction dataset for chinese literature text[J]. arXiv preprint arXiv:1711.07010, 2017.

Hou J, Li X, Yao H, et al. BERT-based Chinese relation extraction for public security[J]. IEEE Access, 2020, 8: 132367-132375.

标签:BERT,嵌入,Based,特征向量,Chinese,模型,embedding,句子
From: https://www.cnblogs.com/zinger/p/18329501

相关文章

  • 一键语法错误增强工具 ChineseErrorCorrector
    一键语法错误增强工具欢迎使用一键语法错误增强工具,该工具可以进行14种语法错误的增强,不同行业可以根据自己的数据进行错误替换,来训练自己的语法和拼写模型,可以支持的14种不同语法错误增强,分别为:1.缺字漏字2.错别字错误3.缺少标点4.错用标点5.主语不明6.谓语残缺7.宾语残......
  • (8-6-05)优先级遍历(Priority-based Search)算法:基于tkinter的多算法路径规划程序(5)
    (7)函数breadth_first_search实现了广度优先搜索算法。它使用一个队列来存储待探索的节点,并通过迭代地从队列中取出节点来搜索路径。在搜索过程中,它会调用`add_neighbours`函数来添加节点的相邻节点,并在添加节点后继续搜索。当找到目标节点时,函数会停止搜索,并调用`paint`函数来......
  • 深入浅出WebRTC—LossBasedBweV2
    WebRTC同时使用基于丢包的带宽估计算法和基于延迟的带宽估计算法那,能够实现更加全面和准确的带宽评估和控制。基于丢包的带宽估计算法主要依据网络中的丢包情况来动态调整带宽估计,以适应网络状况的变化。本文主要讲解最新LossBasedBweV2的实现。1.静态结构LossBasedBweV2......
  • 多任务 bert 用于 5 个类别的多标签分类
    我构建并微调了5个基于BioClinicalBERT的模型(微调bert)来预测以下类别的医疗记录标签:specialties=["aud","den","oph","oto","psy","tbi"]clinical_summaries=["consultation","hospital_discharge",&q......
  • 论文阅读:Enhancing Chinese Character Representation With Lattice-Aligned Attentio
    方法:格对齐注意力网络(LAN)旨在对词-字符格结构上的密集交互进行建模,以增强字符表示。首先,应用软词典特征策略构建词-字符格结构,然后得到了字符和词序列的固定维度表示。接着,利用格对齐注意力来显示地模拟不同特征空间之间的密集交互。最后,应用条件随机场(CRF)和关系分类器来执......
  • 用于 5 个类别的多标签分类的多任务 bert
    我构建了5个基于BioClinicalBERT的模型(微调bert)来预测以下类别的医疗记录标签:specialties=["aud","den","oph","oto","psy","tbi"]clinical_summaries=["consultation","hospital_discharge","......
  • Ibert眼图测试与高速接口的介质
    光纤的分类:单模和多模; SRIO和万兆网用普通的电信号作为介质存在着速率上的不足,在这个前提下需要依赖光纤;Ti的LMK系列是目前常用的接收光纤信号的高速收发器器件,这个器件可以将输入转换成数字信号传递给主控芯片;单模光纤内部一般只有一种波长的光:1310nm或1550nm,这种光纤传输......
  • 深入浅出WebRTC—DelayBasedBwe
    WebRTC中的带宽估计是其拥塞控制机制的核心组成部分,基于延迟的带宽估计是其中的一种策略,它主要基于延迟变化推断出可用的网络带宽。1.总体架构1.1.静态结构1)DelayBasedBwe受GoogCcNetworkController控制,接收其输入并返回带宽估计值。2)DelayBasedBwe内部使用InterAr......
  • Bert中文预训练模型(Bert-base-chinese)
    介绍Bert-base-chinese模型是一个在简体和繁体中文文本上训练得到的预训练模型,具有以下特点:12个隐层输出768维张量12个自注意力头110M参数量该模型的主要作用是获取每个汉字的向量表示,后续通过微调可应用于各种简体和繁体中文任务。使用importtorchfromtransformersim......
  • (ECCV2024论文解读)GPSFormer: A Global Perception and Local Structure Fitting-based
    目录摘要1、引言2、方法2.1 背景3.2 全局感知模块2.3 局部结构拟合卷积泰勒级数局部结构拟合卷积显式结构引入2.4 GPSFormer点云分类部件分割任务3、实验3.13D形状分类ScanObjectNN数据集上的形状分类ModelNet40数据集上的形状分类3.2部件分割3.3小样本分类3.4消融研究全局感......