论文信息
论文标题:Evidence-aware Fake News Detection with Graph Neural Networks
论文作者:Weizhi Xu, Junfei Wu, Qiang Liu, Shu Wu, Liang Wang
论文来源:2022 WWW
论文地址:download
论文代码:download
1 Introduction
同一个实验室的一起水论文
2 Task Formulation
Evidence-based fake news detection is a classification task, where the model is required to output the prediction of news veracity. Specifically, the inputs are a claim $c$ , several related evidences $\mathcal{E}=\left\{e_{1}, e_{2}, \ldots, e_{n}\right\}$ , and their corresponding speakers $\mathrm{s} \in \mathbb{R}^{1 \times b}$ or publishers $\mathbf{p} \in \mathbb{R}^{n \times b}$ , where $n$ is the number of evidences and b is the dimension of speaker and publisher embeddings. The output is the predicted probability of veracity $\hat{y}=f(c, \mathcal{E}, \mathbf{s}, \mathbf{p}, \Theta)$ , where $f$ is the verification model and $\Theta$ is its trainable parameters.
3 Method
总体框架:
3.1 Graph Construction
对于一个句子中的某个中心词,在窗口内的单词用边相连。
初始节点嵌入是词嵌入,本文还尝试使用全连接或者基于相似度的方法构造,但是效果都不好,这可能是由于信息冗余的问题。对于 Claim、Evidence 都是使用上述构建方法。
Claim、Evidence 的节点嵌入矩阵和邻接矩阵:$\tilde{\mathbf{A}}_{c}^{(0)} \in \mathbb{R}^{N_{c} \times N_{c}}$、$\tilde{\mathbf{A}}_{e}^{(0)} \in \mathbb{R}^{N_{e} \times N_{e}}$、$\mathbf{H}_{c}^{(0)} \in \mathbb{R}^{N_{c} \times d}$、$\mathbf{H}_{e}^{(0)} \in \mathbb{R}^{N_{e} \times d}$。
3.2 Graph-based Semantics Encoder
为了挖掘长距离语义依赖关系,我们建议利用 GNN 作为语义编码器。特别是,由于我们期望自适应地保持自特征和相邻节点信息之间的平衡,我们使用图门控神经网络(GGNN)在声明图和证据图上进行邻域传播,使节点能够捕获它们的上下文信息,这对于学习高级语义具有重要意义。形式上,可以写如下:
$\begin{aligned}\mathbf{a}_{i} & =\sum_{\left(w_{i}, w_{j}\right) \in C} \tilde{\mathbf{A}}_{i j} \mathbf{W}_{a} \mathbf{H}_{j} quad \quad\quad \quad\quad\quad\quad(1)\\\mathbf{z}_{i} & =\sigma\left(\mathbf{W}_{z} \mathbf{a}_{i}+\mathbf{U}_{z} \mathbf{H}_{i}+\mathbf{b}_{z}\right)\quad \quad\quad \quad\quad(2)\\\mathbf{r}_{i} & =\sigma\left(\mathbf{W}_{r} \mathbf{a}_{i}+\mathbf{U}_{r} \mathbf{H}_{i}+\mathbf{b}_{r}\right) \quad \quad\quad \quad\quad(3)\\\tilde{\mathbf{H}}_{i} & =\tanh \left(\mathbf{W}_{h} \mathbf{a}_{i}+\mathbf{U}_{h}\left(\mathbf{r}_{i} \odot \mathbf{H}_{i}\right)+\mathbf{b}_{h}\right) \quad\quad(4)\\\hat{\mathbf{H}}_{i} & =\tilde{\mathbf{H}}_{i} \odot \mathbf{z}_{i}+\mathbf{H}_{i} \odot\left(1-\mathbf{z}_{i}\right) \quad\quad \quad\quad(5)\end{aligned}$3.3 Semantic Structure Refinement
由于证据总是包含冗余信息,可能会误导模型关注不重要的特征,因此有利于发现和过滤掉冗余,从而获得精细的语义结构。为此,在我们的基于图的框架中,我们将冗余缓解视为一个图结构学习过程,其目的是学习优化的图拓扑以及更好的节点表示。以往的GSL方法通常通过三种方式来优化拓扑结构,即删除节点、删除边和调整边的权值。由于冗余信息主要涉及证据图中节点的词,我们尝试通过丢弃冗余节点来细化证据图的结构。
特别地,我们建议为每个节点计算一个冗余分数,在此基础上我们得到一个排名列表,具有 $\text{top-k}$ 冗余分数的节点将被丢弃。冗余不仅与每个节点中包含的自信息有关,而且是由图上的邻域所涉及的上下文信息引起的。例如,如果一个声明可以通过证据中的一个片段来验证,那么其余的段(包括片段的上下文)将是多余的。因此,我们使用 1 层 GGNN 来计算冗余分数,这考虑了自我信息以及上下文计算分数。在数学上,它可以表述为:
$\begin{array}{l}\mathbf{s}_{r}=\mathbf{G G N N}\left(\tilde{\mathbf{A}}, \hat{\mathbf{H}}_{\mathrm{e}} \mathbf{W}_{s}\right) \quad\quad(6) \\i d x=\operatorname{top} k_{-} \operatorname{index}\left(\mathbf{s}_{r}\right)\quad\quad(7) \\\tilde{\mathbf{A}}_{i d x,:}=\tilde{\mathbf{A}}_{:, i d x}=0 \quad\quad(8)\end{array}$
其中,$\mathbf{W}_{s} \in \mathbb{R}^{d \times 1}$ 是将节点表示投影到一维分数空间中的可训练权值。$\text{idx}$ 表示具有 $\text{top-
标签:right,mathbf,NeuralNetworks,GET,Graph,evidence,quad,冗余,left From: https://www.cnblogs.com/BlairGrowing/p/17004848.html