首页 > 其他分享 >读论文

读论文

时间:2023-08-26 13:34:09浏览次数:17  
标签:attention mathbf Graph 论文 right Heterogeneous operatorname

目录

读论文

Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering

看不懂

Heterogeneous Graph Transformer

Meta Relation

每条边映射到一个三元组

Dynamic Heterogeneous Graph

把时间戳赋值到每条边上,每个点也可以assign不同的时间戳

General GNN

从 \(l-1\) 层到 \(l\) 层:

\[H^l[t] \leftarrow \underset{\forall s \in N(t), \forall e \in E(s, t)}{\text { Aggregate }}\left(\operatorname{Extract}\left(H^{l-1}[s] ; H^{l-1}[t], e\right)\right) \]

Heterogeneous GNNs

好像要用 interaction matrices 来共享一部分 weights

HETEROGENEOUS GRAPH TRANSFORMER

Its idea is to use the meta relations of heterogeneous graphs to parameterize weight matrices for the heterogeneous mutual attention, message passing, and propagation steps.

general attention-based GNNs

\[H^l[t] \leftarrow \underset{\forall s \in N(t), \forall e \in E(s, t)}{\text { Aggregate }}(\text { Attention }(s, t) \cdot \text { Message }(s)) \]

\[\begin{aligned} \operatorname{Attention}_{G A T}(s, t) & =\underset{\forall s \in N(t)}{\operatorname{Softmax}}\left(\vec{a}\left(W H^{l-1}[t] \| W H^{l-1}[s]\right)\right) \\ \operatorname{Message}_{G A T}(s) & =W H^{l-1}[s] \\ \operatorname{Aggregate}_{G A T}(\cdot) & =\sigma(\operatorname{Mean}(\cdot)) \end{aligned} \]

HGT计算方式

注意他矩阵W都是type-aware的

\[\begin{gathered} \operatorname{Head}_k^{A T T}(i, j)=\left(\frac{\mathbf{K}_i^k \mathbf{W}_{\psi(i, j)}^{A T T} \mathbf{Q}_j^{k^{\mathrm{T}}}}{\sqrt{d}}\right) \mu(\phi(i), \psi(i, j), \phi(j)) \\ \operatorname{Attention}(i, j)=\operatorname{Softmax}_{i \in N(j)}\left(\|_k \operatorname{Head}_k^{A T T}(i, j)\right) \end{gathered} \]

\[\begin{gathered} \operatorname{Message}(i, j)=\|_k \mathbf{W}_{\phi(i)}^k \mathbf{h}_i \mathbf{W}_{\psi(i, j)}^{M S G} \\ \mathbf{h}_j=\sum_{i \in N(j)} \operatorname{Attention}(i, j) \odot \operatorname{Message}(i, j) \end{gathered} \]

后面还有时间编码和HGSampling

A Survey on Heterogeneous Graph Embedding: Methods, Techniques, Applications and Sources

Heterogeneous graph neural networks analysis: a survey of techniques, evaluations and applications

Network Schema: 一个paradigm

Metapath:元路径

Heterogeneous Graph Embedding

convolution-based HGNN

思想是把周围点的信息aggregate到当前点,形成embedding

更高效但是参数更多空间消耗更大

HAN

在一个metapath的相邻节点之中,attention和embedding相互计算

获得多个metapath的 different semantic node embeddings 之后,再过一遍(mlp,激活函数,attention vector)计算attention,再计算最后的embedding

HAHE:uses cosine similarity instead of attention mechanism to calculate the two kinds of importance

MAGNN:把metapath的中间节点也用encoder存进了semantic信息,不过他encoder到底怎么工作的没仔细说不太懂

这几种都要人工设置metapath

GTN

Graph Transformer Networks,分出subgraphs然后学习embedding

But GTN only considers edge types with ignoring diferent types of nodes.

HetSANN

Heterogeneous Graph Structural Attention Neural Network

首先把neighbor nodes映射进选中的点的空间,然后通过type-aware attention layer来学习每个点的embedding,这样可以考虑周围点的类型不同以及重要性不同

HGT

同论文

HetSANN和HGT都使用分层注意力机制来代替metapath,但是生成了更多的参数

HGCN

认为异质图是由多个二分图子图构成的,在每个子图上用GCN,再用attention(type-aware)aggregate起来获得最终的embedding

Autoencoder‑based approaches

HIN2Vec

尝试算出i和j有关系r的概率(conditional probability)

\[P(r|i,j) = sigmoid\left(\sum\mathbf{W}_I\vec i \cdot \mathbf{W}_J\vec j\cdot\mathbf{W}_R\vec r\right) \]

然后计算交叉熵损失,虽然不太懂他L(i,j,r)到底是什么

SHINE

用三个autoencoder计算三种不同的语义信息

utilizes the topological structure of heterogeneous graphs

HNE

每个点代表text或者image,adopts CNN and fully connected layers

NSHE

首先使用GCN(还是先project成向量,然后aggregate)来涵盖一阶proximity,然后使用多个autoencoder最后拼起来进行预测任务

标签:attention,mathbf,Graph,论文,right,Heterogeneous,operatorname
From: https://www.cnblogs.com/lcyfrog/p/17658703.html

相关文章

  • 【论文解读】基于图的自监督学习联合嵌入预测架构
    一、简要介绍 本文演示了一种学习高度语义的图像表示的方法,而不依赖于手工制作的数据增强。论文介绍了基于图像的联合嵌入预测架构(I-JEPA),这是一种用于从图像中进行自监督学习的非生成性方法。I-JEPA背后的idea很简单:从单个上下文块中,预测同一图像中不同目标块的表示。指导I-JEP......
  • 论文解读 | ScanNet:室内场景的丰富注释3D重建
    原创|文BFT机器人大型的、有标记的数据集的可用性是为了利用做有监督的深度学习方法的一个关键要求。但是在RGB-D场景理解的背景下,可用的数据非常少,通常是当前的数据集覆盖了一小范围的场景视图,并且具有有限的语义注释。为了解决这个问题,本文介绍了一个ScanNet的大规模室内场景......
  • [论文理解] HACK: Learning a Parametric Head and Neck Model for High-fidelity Ani
    HACK:LearningaParametricHeadandNeckModelforHigh-fidelityAnimation上科大发布的头和脖子精细建模的参数化模型HACK。纹理转化由于HACK没有开源纹理基,我将FLAME开源的纹理基迁移到了HACK上,代码在这里开源:https://github.com/aoru45/FLAME_TO_HACK/tree/main论文......
  • 论文解读(MetaAdapt)《MetaAdapt: Domain Adaptive Few-Shot Misinformation Detection
    Note:[wechat:Y466551|可加勿骚扰,付费咨询]论文信息论文标题:MetaAdapt:DomainAdaptiveFew-ShotMisinformationDetectionvia MetaLearning论文作者:ZhenruiYue、HuiminZeng、YangZhang、LanyuShang、DongWang论文来源:2023ACL论文地址:download 论文代码:download......
  • 论文解读 | 解释和利用对抗性示例
    原创|文BFT机器人摘要ABSTRACT这篇论文研究了神经网络和其他机器学习模型在错误分类对抗性示例方面的问题。对抗性示例是通过对数据中的示例应用微小但故意的扰动来生成的,导致模型输出错误答案。以往的解释主要集中在非线性和过拟合上,然而,本文提出了一种不同的观点,认为神经网络......
  • 论文解读(IW-Fit)《Better Fine-Tuning via Instance Weighting for Text Classificatio
    Note:[wechat:Y466551|可加勿骚扰,付费咨询]论文信息论文标题:BetterFine-TuningviaInstanceWeightingforTextClassification论文作者:论文来源:2021ACL论文地址:download 论文代码:download视屏讲解:click1介绍出发点:域适应一类方法是对预先训练好的模型参数进行微......
  • 精选论文翻译 | MIMO雷达波形的分析与比较
    本文编辑:@调皮连续波,保持关注调皮哥,获得更多雷达学习资料和建议!大家好,我是调皮哥,今天继续给大家分享干货,助力大家轻松、快乐、有方向地学习雷达。雷达的理论很丰富,可谓博大精深。关于基础部分知识,除了有些是我没有研究过不会之外,可以总结以及我个人能够总结的东西其实差不多都吐完......
  • ACM MM 2023 | 腾讯优图实验室6篇论文入选,含视觉识别、半监督学习等研究方向
    前言 近日,腾讯优图实验室6篇论文被国际人工智能多媒体领域顶级会议ACMMM2023(ACMInternationalConferenceonMultimedia)所接收,涵盖视觉识别、神经绘画和风格化研究、半监督学习等多个研究方向,进一步展示了腾讯优图实验室在人工智能领域的技术能力和学术成果。ACMMM是计算机......
  • 毕业论文辅导中国石油大学
    毕业论文辅导中国石油大学软件工程课程设计答案 软件工程设计答案 中国石油大学论文辅导QQ530986209   ......
  • 李飞飞VoxPoser论文解读
    VoxPoser:Composable3DValueMapsforRoboticManipulationwithLanguageModels论文:Huang,Wenlongetal.,VoxPoser:Composable3DValueMapsforRoboticManipulationwithLanguageModelshttps://voxposer.github.io/https://voxposer.github.io/voxposer.pdf......