首页 > 其他分享 >论文阅读:Scalable Algorithms for Densest Subgraph Discovery

论文阅读:Scalable Algorithms for Densest Subgraph Discovery

时间:2024-08-01 16:53:02浏览次数:14  
标签:有向图 迭代 Subgraph 子图 Scalable 算法 Densest DSD 并行算法

摘要

密集子图发现(DSD)作为图数据挖掘的基础问题,旨在从图中找到密度最高的子图。虽然已有许多DSD算法,但它们在处理大规模图时往往不可扩展或效率低下。本文提出了在无向图和有向图上求解DSD问题的高效并行算法,通过优化迭代过程和减少迭代次数来计算核心数。同时引入了新的子图模型——w诱导子图,以避免不必要的枚举,从而提高算法效率。实验结果表明,所提算法在无向图和有向图上的性能均优于现有算法,具有良好的可扩展性和效率。

介绍

密集子图发现问题在图数据挖掘中具有重要意义,广泛应用于网络社区检测、DNA调控基序发现、图索引构建以及虚假关注者检测等领域。尽管已有许多DSD算法,但大多数算法为串行算法,仅能利用单个CPU核心的计算资源,难以处理大规模图数据。因此,本文提出了高效的并行算法以解决这一问题。

相关工作

  • 无向图DSD算法:许多无向图DSD算法基于k-core分解。Charikar提出了第一个2-近似算法,通过迭代剥离度最小的顶点来寻找密集子图。Fang等人证明了k-core的最大核心数是2-近似解,并开发了高效的算法。
  • 有向图DSD算法:Ma等人提出了[x, y]-core的概念,通过迭代剥离度最小的顶点来计算有向图的密集子图。Bahmani等人提出了基于MapReduce的并行算法,解决了有向图和无向图的DSD问题。

算法细节

无向图密集子图发现算法
  1. k-core计算:通过迭代剥离度最小的顶点,直到所有顶点的度数都不小于k。

    • 初始化:设置每个顶点的度数为初始h-index。
    • 迭代剥离:并行更新每个顶点的h-index,直到所有顶点的h-index值不再变化。
    • 提前停止:如果两次连续迭代中的最大h-index值和相应顶点数不变,则停止迭代,返回k*-core。
    • 时间复杂度:最坏情况下时间复杂度为O(t * m),其中t是迭代次数,m是图中的边数。
  2. 并行优化

    • 并行设计:基于共享内存模型的并行算法,有效利用多核处理器提升计算速度。
    • 优化策略:引入h-index更新方法,减少冗余计算,提高效率。
    • 实验验证:通过实验验证算法在大规模图上的高效性。

在这里插入图片描述

有向图密集子图发现算法
  1. [x, y]-core计算
    • 定义:一个[x, y]-core是有向图中出度至少为x,入度至少为y的最大子图。
    • 迭代剥离:剥离出度或入度最小的顶点,直到剩余图满足[x, y]条件。
    • w诱导子图模型:定义边权重为其两端点度数乘积,通过剥离权重最小的边来找到密集子图。

在这里插入图片描述

  1. w诱导子图计算
    • 边权重定义:每条边的权重定义为其两端点的出度和入度的乘积。
    • w诱导子图:剥离权重最小的边,记录其诱导数,并更新相邻边的权重,直到图为空。
    • 时间复杂度:最坏情况下时间复杂度为O(t * m),其中t是迭代次数,m是图中的边数。

在这里插入图片描述

实验结果

实验在12个大规模真实图数据集上进行,包括4个十亿规模的图。实验结果表明,本文提出的并行算法在无向图和有向图上的表现均显著优于现有的最先进算法。具体来说,在处理无向图时,所提出的算法在计算时间上比基准算法快了20倍;在处理有向图时,速度提升达到30倍。此外,实验数据还展示了新算法在大规模图数据上的出色扩展性,不仅减少了计算时间,还提高了结果的准确性。

在这里插入图片描述

上圖10展示了PBD、PXY和PWC这三种并行算法在WE和TW两个数据集上的可扩展性测试结果。实验中所有子图的采样方式与实验-4相同。由于在p>4时,PBD和PXY在TW数据集上因内存溢出而无法运行,因此我们在各个图上将参数设置为p=4,以比较这三种并行算法的可扩展性。图中可以看到,随着图中边数的增加,所有算法的时间开销也相应增加。这一结果验证了我们提出的算法在处理大规模图数据时的良好表现,能够有效应对图规模的增长

在这里插入图片描述

图八展示了不同数据集上DDS算法的效率。实验结果显示,PXY和PBD由于内存溢出无法在TW数据集上运行。与其他算法相比,PWC在所有数据集上的运行速度最快,最多比最先进的PXY算法快30倍。触及上边界的条形图表示相应的算法无法在105秒内完成。

结论

本文提出了一系列高效的并行算法,用于在大规模无向图和有向图中发现密集子图。通过引入共享内存模型的并行设计和w诱导子图模型,显著减少了计算过程中的冗余操作,提升了算法的效率和可扩展性。实验结果验证了所提算法在处理大规模图数据时的优越性能。未来的研究可以进一步优化这些算法,探索在异构计算环境(如GPU和CPU结合)中的应用。此外,可以研究动态图上的密集子图发现算法,以应对图结构随时间变化的情况。在应用方面,这些算法可广泛应用于社交网络中的社区检测和虚假用户识别、生物信息学中的基因调控网络分析、网络安全中的异常行为检测以及大规模图数据的可视化和查询优化。通过这些扩展,密集子图发现算法将会在更多的实际场景中发挥重要作用,为各个领域提供有力的数据分析工具。

论文地址:https://ieeexplore.ieee.org/document/10184843

标签:有向图,迭代,Subgraph,子图,Scalable,算法,Densest,DSD,并行算法
From: https://blog.csdn.net/m0_62361730/article/details/140852153

相关文章

  • 论文摘要:Efficient Algorithms for Densest Subgraph Discovery on Large Directed Gr
    背景在很多应用中,例如欺诈检测、社区挖掘和图压缩等,需要从有向图中找到密度最高的子图,这被称为有向最密子图问题(DirectedDensestSubgraph,DDS)。DDS问题在社交网络、Web图和知识图谱等领域有着广泛的应用。例如,在社交网络中,可以用来检测假粉丝,在Web图中,可以用来发现网络......
  • A LLM-based Controllable, Scalable, Human-Involved User Simulator Framework for
    目录概CSHI(Controllable,Scalable,andHuman-Involved)代码ZhuL.,HuangX.andSangJ.Allm-basedcontrollable,scalable,human-involvedusersimulatorframeworkforconversationalrecommendersystems.2024.概作者利用LLM进行用户模拟,虽然是复杂了一点......
  • Personalized Subgraph Federated Learning,FED-PUB,2023,ICML 2023
    个性化子图联邦学习paper:PersonalizedSubgraphFederatedLearningcodeAbstract更大的全局图的子图可能分布在多个设备上,并且由于隐私限制只能在本地访问,尽管子图之间可能存在链接。最近提出的子图联邦学习(FL)方法通过在局部子图上分布式训练图神经网络(gnn)来处理局......
  • Scalable Membership Inference Attacks via Quantile Regression
    我们使用以下六个分类标准:动机:隐私问题:许多研究背后的主要动机是对机器学习模型相关的隐私风险日益增长的担忧。例如,Shokri等人(2017)和Carlini等人(2022)专注于开发和改进成员推理攻击,以评估模型对隐私泄露的脆弱性。模型理解:一些研究深入了解机器学习模型的固有属性。Y......
  • Scalable Multi-Hop Relational Reasoning for Knowledge-Aware Question Answering翻
    文章目录论文标题:用于知识感知问答的可扩展的多跳关系推理摘要1简介2问题表述和概述部分3背景:多关系图编码方法4拟议的方法:多跳图关系网络(MHGRN)4.1MHGRN:模型架构4.2结构化关系注意力4.3计算复杂度分析4.4MHGRN的表现力4.5学习、推断和路径解码5实验设置5.1从......
  • 2023 NIPS A*Net: A Scalable Path-based Reasoning Approachfor Knowledge Graphs 知
    文章链接原文:b9e98316cb72fee82cc1160da5810abc-Paper-Conference.pdf(neurips.cc)代码:https://github.com/DeepGraphLearning/AStarNet一、动机与贡献为了使路径推理方法适用于大规模图上的归纳推理任务,文章改进了路径信息获取的方法。路径推理方法较好的归纳推理能力......
  • [Paper Reading] LVM: Sequential Modeling Enables Scalable Learning for Large Vis
    LVM:SequentialModelingEnablesScalableLearningforLargeVisionModelsLVM:SequentialModelingEnablesScalableLearningforLargeVisionModels时间:23.12机构:UCBerkeley&&JohnsHopkinsUniversityTL;DR本文提出一种称为大视觉模型(LVM)的方法,该方法以"vis......
  • 【论文精读】MAE:Masked Autoencoders Are Scalable Vision Learners 带掩码的自动编码
    系列文章目录【论文精读】Transformer:AttentionIsAllYouNeed【论文精读】BERT:Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstanding【论文精读】VIT:visiontransformer论文文章目录系列文章目录一、前言二、文章概览(一)研究背景(二)MAE的主......
  • [基础] DiT: Scalable Diffusion Models with Transformers
    名称DiT:ScalableDiffusionModelswithTransformers时间:23/03机构:UCBerkeley&&NYUTL;DR提出首个基于Transformer的DiffusionModel,效果打败SD,并且DiT在图像生成任务上随着Flops增加效果会降低,比较符合scalinglaw。后续sora的DM也使用该网络架构。Method网络结构整......
  • 【PR】Block-NeRF: Scalable Large Scene Neural View Synthesis
    【简介】 本文的作者来自UCBerkeley,Waymo和Google研究院,一听就是大佬。发表在CVPR2022。  【创新点】  【review】  【方法】   【结论】  【参考】TancikM,CasserV,YanX,etal.Block-nerf:Scalablelargesceneneuralviewsynth......