首页 > 其他分享 >虚假新闻检测(GET)《Evidence-aware Fake News Detection with Graph NeuralNetworks》

虚假新闻检测(GET)《Evidence-aware Fake News Detection with Graph NeuralNetworks》

时间:2022-12-26 12:25:00浏览次数:53  
标签:right mathbf NeuralNetworks GET Graph evidence quad 冗余 left

论文信息

论文标题:Evidence-aware Fake News Detection with Graph Neural Networks
论文作者:Weizhi Xu, Junfei Wu, Qiang Liu, Shu Wu, Liang Wang
论文来源:2022 WWW
论文地址:download 
论文代码:download

1 Introduction

  同一个实验室的一起水论文

2 Task Formulation

  Evidence-based fake news detection is a classification task, where the model is required to output the prediction of news veracity. Specifically, the inputs are a claim  $c$ , several related evidences  $\mathcal{E}=\left\{e_{1}, e_{2}, \ldots, e_{n}\right\}$ , and their corresponding speakers  $\mathrm{s} \in \mathbb{R}^{1 \times b}$  or publishers  $\mathbf{p} \in \mathbb{R}^{n \times b}$ , where  $n$  is the number of evidences and  b  is the dimension of speaker and publisher embeddings. The output is the predicted probability of veracity  $\hat{y}=f(c, \mathcal{E}, \mathbf{s}, \mathbf{p}, \Theta)$ , where  $f$  is the verification model and  $\Theta$  is its trainable parameters.

3 Method

总体框架:

  

3.1 Graph Construction

  对于一个句子中的某个中心词,在窗口内的单词用边相连。

  

  初始节点嵌入是词嵌入,本文还尝试使用全连接或者基于相似度的方法构造,但是效果都不好,这可能是由于信息冗余的问题。对于 Claim、Evidence 都是使用上述构建方法。

  Claim、Evidence 的节点嵌入矩阵和邻接矩阵:$\tilde{\mathbf{A}}_{c}^{(0)} \in \mathbb{R}^{N_{c} \times N_{c}}$、$\tilde{\mathbf{A}}_{e}^{(0)} \in \mathbb{R}^{N_{e} \times N_{e}}$、$\mathbf{H}_{c}^{(0)} \in \mathbb{R}^{N_{c} \times d}$、$\mathbf{H}_{e}^{(0)} \in \mathbb{R}^{N_{e} \times d}$。

3.2 Graph-based Semantics Encoder

  为了挖掘长距离语义依赖关系,我们建议利用 GNN 作为语义编码器。特别是,由于我们期望自适应地保持自特征和相邻节点信息之间的平衡,我们使用图门控神经网络(GGNN)在声明图和证据图上进行邻域传播,使节点能够捕获它们的上下文信息,这对于学习高级语义具有重要意义。形式上,可以写如下:

    $\begin{aligned}\mathbf{a}_{i} & =\sum_{\left(w_{i}, w_{j}\right) \in C} \tilde{\mathbf{A}}_{i j} \mathbf{W}_{a} \mathbf{H}_{j}  quad \quad\quad \quad\quad\quad\quad(1)\\\mathbf{z}_{i} & =\sigma\left(\mathbf{W}_{z} \mathbf{a}_{i}+\mathbf{U}_{z} \mathbf{H}_{i}+\mathbf{b}_{z}\right)\quad \quad\quad \quad\quad(2)\\\mathbf{r}_{i} & =\sigma\left(\mathbf{W}_{r} \mathbf{a}_{i}+\mathbf{U}_{r} \mathbf{H}_{i}+\mathbf{b}_{r}\right) \quad \quad\quad \quad\quad(3)\\\tilde{\mathbf{H}}_{i} & =\tanh \left(\mathbf{W}_{h} \mathbf{a}_{i}+\mathbf{U}_{h}\left(\mathbf{r}_{i} \odot \mathbf{H}_{i}\right)+\mathbf{b}_{h}\right) \quad\quad(4)\\\hat{\mathbf{H}}_{i} & =\tilde{\mathbf{H}}_{i} \odot \mathbf{z}_{i}+\mathbf{H}_{i} \odot\left(1-\mathbf{z}_{i}\right) \quad\quad \quad\quad(5)\end{aligned}$

3.3 Semantic Structure Refinement

  由于证据总是包含冗余信息,可能会误导模型关注不重要的特征,因此有利于发现和过滤掉冗余,从而获得精细的语义结构。为此,在我们的基于图的框架中,我们将冗余缓解视为一个图结构学习过程,其目的是学习优化的图拓扑以及更好的节点表示。以往的GSL方法通常通过三种方式来优化拓扑结构,即删除节点、删除边和调整边的权值。由于冗余信息主要涉及证据图中节点的词,我们尝试通过丢弃冗余节点来细化证据图的结构。

  特别地,我们建议为每个节点计算一个冗余分数,在此基础上我们得到一个排名列表,具有 $\text{top-k}$ 冗余分数的节点将被丢弃。冗余不仅与每个节点中包含的自信息有关,而且是由图上的邻域所涉及的上下文信息引起的。例如,如果一个声明可以通过证据中的一个片段来验证,那么其余的段(包括片段的上下文)将是多余的。因此,我们使用 1 层 GGNN 来计算冗余分数,这考虑了自我信息以及上下文计算分数。在数学上,它可以表述为:

    $\begin{array}{l}\mathbf{s}_{r}=\mathbf{G G N N}\left(\tilde{\mathbf{A}}, \hat{\mathbf{H}}_{\mathrm{e}} \mathbf{W}_{s}\right)  \quad\quad(6) \\i d x=\operatorname{top} k_{-} \operatorname{index}\left(\mathbf{s}_{r}\right)\quad\quad(7) \\\tilde{\mathbf{A}}_{i d x,:}=\tilde{\mathbf{A}}_{:, i d x}=0  \quad\quad(8)\end{array}$

  其中,$\mathbf{W}_{s} \in \mathbb{R}^{d \times 1}$ 是将节点表示投影到一维分数空间中的可训练权值。$\text{idx}$ 表示具有 $\text{top-

标签:right,mathbf,NeuralNetworks,GET,Graph,evidence,quad,冗余,left
From: https://www.cnblogs.com/BlairGrowing/p/17004848.html

相关文章