首页 > 其他分享 > Multi-View Attribute Graph Convolution Networks for Clustering

Multi-View Attribute Graph Convolution Networks for Clustering

时间:2023-04-16 18:35:12浏览次数:50  
标签:Clustering Multi 嵌入 Convolution 编码器 视图 聚类 属性 MAGCN

论文阅读04-Multi-View Attribute Graph Convolution Networks for Clustering:MAGCN

论文信息

论文地址:Multi-View Attribute Graph Convolution Networks for Clustering | IJCAI

论文代码:MAGCN

1.多视图属性聚类:MAGCN

1.存在问题:GNN 融入Multi-View Graph

1)他们不能将指定学习的不同权重的分配给邻域内的不同节点;

2)他们可能忽略了进行节点属性和图结构的重构以提高鲁棒性;

3)对于不同视图之间的一致性关系没有明确考虑相似距离度量

2.解决问题:MAGCN

本论文提出了一种新的多视图属性图卷积网络,用于聚类(MAGCN)多视图属性的图结构数据

  1. 为了将可学习的权重分配给不同的节点,MAGCN开发了具有注意机制的多视图属性图卷积编码器,用于从多视图图数据中学习图嵌入

  2. 属性和图重建均由 MAGCN 的图卷积解码器计算。

  3. 多视图图数据之间几何关系和概率分布一致性纳入MAGCN的一致嵌入编码器中,以进一步促进聚类任务。

编码器1:

开发多视图属性图注意力网络减少噪声/冗余并学习多视图图数据的图嵌入特征。

编码器2:

开发一致的嵌入编码器来捕获不同视图之间的几何关系和概率分布的一致性,从而自适应地为多视图属性找到一致的聚类嵌入空间

2.MAGCN模型创新点

  1. 我们提出了一种新的多视图属性图卷积网络,用于对多视图属性的图结构数据进行聚类。:为不同的邻域节点分配不同的权重
  2. 我们开发了具有注意机制的多视图属性图卷积编码器,以减少多视图图数据的噪声/冗余
  3. 此外,还考虑了节点属性和图结构的重构以提高鲁棒性。:重构节点信息和结构信息提高模型鲁棒性一致性嵌入编码器旨在通过探索不同视图的几何关系和概率分布一致性来提取多个视图之间的一致性信息。:多视图聚类特点应用

3.MAGCN 模型

1.MAGCN 先验知识

  1. MAGCN的编码器

image-20230327143439693

这个X 特征重构中GAT来自于:[1905.10715] Graph Attention Auto-Encoders (arxiv.org)

  1. GAT 和GATE 的区别

GATE:1905.10715] Graph Attention Auto-Encoders (arxiv.org)

GAT: 1710.10903] Graph Attention Networks (arxiv.org)

image-20230327200539965

image-20230327200624428

  1. GATE 和GAT 区别

GATE:1905.10715] Graph Attention Auto-Encoders (arxiv.org)

GAT: 1710.10903] Graph Attention Networks (arxiv.org)

GATE 的主要贡献是逆转编码过程,以便在没有任何监督的情况下学习节点表示。为此,我们使用与编码器层数相同的解码器。每个解码器层都试图反转其相应编码器层的过程

GATE 中编码器:使用的就是GAT 的共享参数机制,几乎是一样。

区别一激活函数:

GATE中采用的sigmoid的激活函数,GAT中采用的是LeajyReLU的函数

区别二 激活函数的位置:

GATE和GAT激活函数在层级传播公式,激活顺序不一样

image-20230328100134173

GATE中的解码器:

每个解码器层根据节点的相关性利用其邻居的表示来重建节点的表示

image-20230328124945950

简化公式

image-20230328125848446

  1. GATE 步骤流程

image-20230328130226722

  1. 图中参数

image-20230327143739274

2.模型架构图

image-20230327144517730

MAGCN模型主要有两个编码器组成:多视图属性图卷积编码器一致嵌入编码器

用于聚类的多视图属性图卷积网络 (MAGCN) 的框架。

  1. 具有注意机制的多视图属性图卷积编码器:它们用于从节点属性和图数据(图结构)中学习图嵌入执行属性和图形重建以进行端到端学习
  1. 一致嵌入编码器(Consistent embedding encoders):通过几何关系和概率分布的一致性进一步在多个视图之间获得一致的聚类嵌入

MAGCN 模型训练过程:

我们首先将多视图图数据 Xm,通过多视图属性图卷积编码器 编码为图嵌入。将 Hm 馈入一致的嵌入编码器并获得一致的聚类嵌入 Z。聚类过程最终在由 Z 计算出的理想嵌入内在描述空间上进行

3. MAGCN 模块详细

1. 多视图属性图卷积编码器:Multi-view Attribute Graph Convolution Encoder

  1. 主要作用

在多视图属性图卷积编码器中,第一个编码器将多视图节点属性矩阵和图结构映射到图嵌入空间。

image-20230327143439693

  1. 编码器:encoding

为了更好的为自身节点和邻域节点分配可学习的权重,在节点之间使用了带有共享参数的注意力机制:GAT。:采用GCN+Attention的机制对各个view下的特征信息进行聚合,并得到各自的embedding

image-20230328134953738

在每一次用GCN进行特征聚合之前,先要按照这个attention机制求得attention矩阵,然后将其作为G GG输入到GCN框架中.

  1. 解码器:decoding

image-20230328154629420

  1. 损失函数

image-20230328141305813

比较decoding的结果与最初的X 是否逼近(这是指特征信息的逼近),G 的逼近,越逼近说明网络中encoding和decoding过程中没有损失太多的信息

M :表示视图的个数,因此需要把每一个视图重构出来的损失相加和

2.一致嵌入编码器:Consistent embedding encoders

1. 几何关系一致性
  1. 几何关系一致性目的

​ 目的:让各个视图(view)下得到的Zm 去互相逼近,越逼近说明在各个view下得到的Z m 比较一致,进一步说明了网络学到的都是主要信息(因此才能保证各个view下的Zm都很逼近)

image-20230328151729436

  1. 几何关系一致性步骤

​ 步骤:

  1. 降维 :Zm包含了几乎所有的原始信息,不适合直接进行多视图融合。使用一致的聚类层来学习一个由所有 Zm 自适应集成的公共聚类嵌入 Hm。:Hm被映射到低维空间Zm中
  2. 计算几何相似度:假设 Zm 和 Zb 是从一致嵌入编码器获得的视图 m 和 b 的低维空间特征矩阵。然后我们可以使用它们来计算几何关系相似度。比如:曼哈顿距离,欧氏距离,余弦相似度。
  1. 损失函数

几何关系一致性损失函数:

image-20230328144403721

2. 概率分布的一致性
  1. 概率分布一致性 目的

目的:

各个view下得到的概率分布矩阵都与总的概率分布矩阵去进行逼近,越逼近说明每个view下得到的概率分布矩阵都是比较好的,从而也说明了网络确实具有较好的鲁棒性

  1. 概率分布一致性

我们还考虑了公共表示 Z 和每个视图的潜在表示 Zm 之间概率分布的一致性.

image-20230328153218886

对于 i 样本和 j 样本,我们使用 Student 的 t 分布作为核心来度量嵌入点 hi 和聚类中心向量 μj 之间的相似性,如下所示:

image-20230328154933804

qij可以看作是将样本i分配聚类j的概率,即软分配。

*qiu*表示节点i属于簇u的概率,将其看作是每个节点的软聚类分配标签,如果值越大,那么可信度越高 。通过平方运算将这种可信度放大:

image-20230328155055468

  1. 损失函数

MAGCN论文的损失函数没有采用KL散度

image-20230328160332300

3. 总损失函数

image-20230328160343775

我们根据辅助分布P预测每个节点的簇。对于节点i,它的簇可以用pi计算,其中概率值最高的索引是i的簇。因此我们可以得到节点 i 的簇标签为:

image-20230328160642832

4. 实验结果分析

1. MAGCN实验

  1. 数据 集

image-20230328161019647

  1. 多视图的构建

一般的图结构数据库包含一个图和一个属性,目前还没有真正的具有多视图属性的图结构数据。

图结构数据的属性为0, 1,它们是离散结构的也是片面描述的为了更丰富地描述图结构,我们通过改变其操作使属性连续

受多图的启发,它自己构造另一个图,我们通过原始属性构造额外的属性视图。我们使用快速傅立叶变换 (FFT)、Gabor 变换、欧拉变换和笛卡尔积在视图 1 的基础上构建视图 2:

视图 2 由笛卡尔积构成

  1. 实验参数

我们为所有三个数据库使用了两层多视图属性图卷积编码器,在多视图图卷积自动编码器中使用非线性激活函数作为 Relu 函数

数据集 Cora citeseer pubmed
维度 512*512 2000*512 128 *64
  1. 实验结果

image-20230328160607888

  1. MAGCN 在 Cora 和 Citeseer 上比单一视图的 GCN 提高了 5% 以上,在 Pubmed 上提高了 1% 以上,这表明以几何关系和概率分布的一致性来整合不同的视图是有效的

  2. 单视图图卷积聚类方法DAEGC 和 GATE,具有相对更好的聚类性能,这表明注意机制根据可训练的注意力权重聚合邻域信息有助于提高聚类性能.

  3. 深度多视图聚类方法通过使用图结构信息获得更好的性能。这表明图结构信息可以对聚类做出有益贡献

2. MAGCN 消融实验

  1. 概率分布一致性分析

image-20230328165930571

  1. 在初始迭代中,随机初始化使得每个类别的概率基本相似,无法找出样本属于哪个类别

  2. 在第三类中的概率随着迭代次数的增加而增加,Z、Z1、Z2上的概率分布趋于一致,说明理想的多视角描述特征Z是逐渐学习到的.

image-20230328170201913

  1. 参数的影响

image-20230328164648475

对geo 和pro 的超参数分析:

我们保持reconstruction loss的正则参数1不变改变模型中几何关系一致性和概率分布一致性的正则参数2和3。

image-20230328164843840

  1. 不同视图view2构造方法分析

image-20230328164336848

  1. 对于所有类型的视图 2,两个视图的聚类结果优于单个视图 1(用黑线标记)的情况。
  2. 对于视图 2(红线标记),笛卡尔积方式比其他构造方式效果更好

4.参考链接

论文学习--Multi-View Attribute Graph Convolution Networks for Clustering(MAGCN)_爱啊岛呀~的博客-CSDN博客

t-student 分布推导过程:关于“Unsupervised Deep Embedding for Clustering Analysis”的优化问题 - 凯鲁嘎吉 - 博客园 (cnblogs.com)

消融实验:https://blog.csdn.net/weixin_44065652/article/details/123527844

标签:Clustering,Multi,嵌入,Convolution,编码器,视图,聚类,属性,MAGCN
From: https://www.cnblogs.com/life1314/p/17323778.html

相关文章

  • Attributed Graph Clustering |A Deep Attentional Embedding Approach
    论文阅读01-AttributedGraphClustering:ADeepAttentionalEmbeddingApproach1.创新点ideaTwo-step的图嵌入方法不是目标导向的,聚类效果不好,提出一种基于目标导向的属性图聚类框架。所谓目标导向,就是说特征提取和聚类任务不是独立的,提取的特征要在一定程度上有利于聚类......
  • Structural Deep Clustering Network:SDCN
    论文阅读02-StructuralDeepClusteringNetwork模型创新点我们提出了一种用于深度聚类的新型结构深度聚类网络(SDCN)。所提出的SDCN有效地将自动编码器和GCN的优势与新颖的交付算子和双自监督模块结合在一起。据我们所知,这是第一次明确地将结构信息应用于深度聚类。......
  • FastGCN Fast Learning with Graph Convolutional Networks via Importance Sampling
    目录概符号说明MotivationFastGCN方差分析代码ChenJ.,MaT.andXiaoC.FastGCN:fastlearningwithgraphconvolutionalnetworksviaimportancesampling.ICLR,2018.概一般的GCN每层通常需要经过所有的结点的propagation,但是这是费时的.像普通的深度学习方法一......
  • Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning
    目录概符号说明Laplaciansmoothing代码LiQ.,HanZ.andWuX.Deeperinsightsintographconvolutionalnetworksforsemi-supervisedlearning.AAAI,2018.概本文分析了GCN的实际上就是一种Smoothing,但是如果层数过多就会导致over-smoothing.符号说明\(\mat......
  • 用 Gaussian Process 建模 state-action 空间相关性,加速 Multi-Fidelity RL
    目录全文快读1intro3背景4method4.1model-based算法:GP-VI-MFRL4.2model-free算法:GPQ-MFRL5experiment6讨论与展望全文快读题目:Multi-fidelityReinforcementLearningWithGaussianProcesses:Model-BasedandModel-FreeAlgorithms链接:https://ieeexplore.iee......
  • 打着 multi-fidelity RL 旗号,然而幼稚监督学习 + 迁移学习
    文章名称:Multi-fidelityreinforcementlearningframeworkforshapeoptimization链接:https://www.sciencedirect.com/science/article/pii/S0021999123001134#se0020JournalofComputationalPhysics(JCP),计算力学领域国际三大顶刊之一。0abstract提出了一个受控的......
  • Stochastic Training of Graph Convolutional Networks with Variance Reduction
    目录概符号说明Motivation本文方法代码ChenJ.,ZhuJ.andSongL.Stochastictrainingofgraphconvolutionalnetworkswithvariancereduction.ICML,2018.概我们都知道,GCN虽然形式简单,但是对于结点个数非常多的情形是不易操作的:多层的卷积之后基本上每个结点......
  • AtCoder Regular Contest 104 D Multiset Mean
    洛谷传送门AtCoder传送门很平凡的一道计数啊。考虑将所有数都减去\(x\),那么就要求选的数和为\(0\)。正负分开考虑,\(0\)可以任意选。需要多重背包求\(f_{i,j}\)表示选\(1\simi\)的数和为\(j\)的方案数。前缀和优化是平凡的。code//Problem:D-MultisetMean......
  • 0007容器之unordered_multiset
    #include<list>#include<iostream>#include<ve......
  • 0008容器之unordered_multimap
    #include<list>#include<iostream>#include<vector>#include<stdexcept>#include<string>#include<cstdlib>//abort()#include<cstdio>//snprintf();整数转字符#include<ctime>#include<algorithm>#include<ar......