• 2024-06-12Efficiently Modeling Long Sequences with Structured State Spaces
    目录概符号说明S4代码GuA.,GoelK.andReC.Efficientlymodelinglongsequenceswithstructuredstatespaces.NeurIPS,2022.概Mamba系列第三作.符号说明\(u(t)\in\mathbb{R}\),输入信号;\(x(t)\in\mathbb{R}^N\),中间状态;\(y(t)\in\mathbb{R}\),输
  • 2024-05-28Towards Universal Sequence Representation Learning for Recommender Systems
    目录概符号说明UniSRec统一的文本表示统一的序列表示Parameter-EfficientFine-tuning代码HouY.,MuS.,ZhaoW.X.,LiY.,DingB.andWenJ.TowardsUniversalSequenceRepresentationLearningforRecommenderSystems.KDD,2022.概本文提出了一个用text替代ID
  • 2024-05-27LGMRec Local and Global Graph Learning for Multimodal Recommendation
    目录概符号说明MotivationLGMRecLocalGraphEmbeddingGlobalGraphEmbeddingFusion代码GuoZ.,LiJ.,LiG.,WangC.,ShiS.andRuanB.LGMRec:Localandglobalgraphlearningformultimodalrecommendation.AAAI,2024.概本文采用分解的方法进行对ID和模态信
  • 2024-05-25如何实现机器人轨迹无碰撞-无约束的优化问题
    参考上一篇博客,这里给出一个具体案例讲解。Q&A通过一个二维的例子讲解我通过一个简单的二维平面运动规划问题来说明本文方法是如何将有约束问题转化为无约束优化的。考虑一个质点在平面上从起点p
  • 2024-04-09MU-MIMO用户间干扰消除-信道反转与规则化信道反转
    BC中,数据传输的主要困难是不能在接收机间直接进行协同信号检测,因此需要在BS处消除数据间的干扰。考虑四种传输方式:信道反转、块对角化、脏纸编码和THP预编码。信道反转假设用户数等于BS天线数,即\(K=N_B\),并假设下行用户为单天线用户。令\(\tilde{x}_u\)表示第\(u\)个用户的信号
  • 2024-03-21A Tale of Two Graphs: Freezing and Denoising Graph Structures for Multimodal Recommendation
    目录概FREEDOMMotivationFrozenItem-ItemgraphDenoisingUser-ItemBipartiteGraphTwoGraphsforLearning代码ZhouX.andShenZ.Ataleoftwographs:Freezinganddenoisinggraphstructuresformultimodalrecommendation.概本文主要是对LATTICE的改进.FREE
  • 2024-03-13论文精读:When Noisy Labels Meet Long Tail Dilemmas A Representation Calibration Method
    Introduction作者考虑了数据集常见的两个问题:1、部分数据被错误得标注;2、数据呈长尾分布。之前涌现了很多工作分别针对这两个问题,但当两者同时存在,它们不能很好的工作。专门针对噪声标签的方法,总是依赖于一些假设,但这些假设在long-tailed上不一定成立。例如利用memorizationeff
  • 2024-02-29Adaptive Universal Generalized PageRank Graph Neural Network
    目录概符号说明GPR-GNN代码ChienE.,PengJ.,LiP.andMilenkovicO.Adaptiveuniversalgeneralizedpagerankgraphneuralnetwork.ICLR,2021.概GPR-GNN自适应地学习GNNlayersweights.符号说明\(G=(V,E)\),graphs;\(\mathbf{X}\in\mathbb{R}^{n\time
  • 2024-01-17NLP 之二:循环神经网络
    我们已经预训练了词向量,接下来考虑设计神经网络解决更具体的问题。自然语言不同于图像信息,例如子结构并不具有连续性等等。诸多困难使得CNN难以沿用,一个代替的方法是RNN。循环神经网络(RNN)一个单隐藏层的MLP形如:$$\bmH=\phi(\bm{XW}+\bm{b})$$即输入\(\bm{X}\),经过全连接的线
  • 2023-11-3003. 离散傅里叶变换
    离散傅里叶级数对一个周期为N的序列,其离散傅里叶级数有:\[\tilde{x}(n)=\frac{1}{N}\sum\limits_{k=0}^{N-1}\tilde{X}[k]e^{j\frac{2\pi}{N}kn}\tag{1.1}\]两边同时乘以\(e^{-j\frac{2\pi}{N}rn}\),并累加有:\[\sum\limits_{n=0}^{N-1}\tilde{x}(n)e^{-j\frac{2\pi}{N}rn}
  • 2023-11-22On Manipulating Signals of User-Item Graph A Jacobi Polynomial-based Graph Collaborative Filtering
    目录概符号说明MotivationJGCF代码GuoJ.,DuL,ChenX.,MaX.,FuQ.,HanS.,ZhangD.andZhangY.Onmanipulatingsignalsofuser-itemgraph:Ajacobipolynomial-basedgraphcollaborativefiltering.KDD,2023.概利用JacobiConvolution来区分高中低频信号
  • 2023-11-20How Powerful are Spectral Graph Neural Networks?
    目录概符号说明SpectralGNNChoiceofBasisforPolynomialFiltersJacobiConv代码WangX.andZhangM.Howpowerfularespectralgraphneuralnetworks?ICML,2022.概分析谱图网络的表达能力.符号说明\(\kappa(M)=\frac{\lambda_{\max}}{\lambda_{\min}}\),矩阵
  • 2023-10-31Graph Neural Networks with Adaptive Residual
    目录概符号说明AirGNN代码LiuX.,DingJ.,JinW.,XuH.,MaY.,LiuZ.andTangJ.Graphneuralnetworkswithadaptiveresidual.NIPS,2021.概基于UGNN框架的一个更加鲁棒的改进.符号说明\(\mathbf{A}\in\mathbb{R}^{n\timesn}\),邻接矩阵;\(\mathbf{D}
  • 2023-10-31视觉惯性SLAM
    IMU基本模型IMU信号本身带有误差,为了更好的在优化问题中使用IMU信号,一般需要建立IMU误差模型(IMU对实际运动的观测和实际的运动的值之间的误差)。其中,最常用的是将其误差模型简化为偏移和测量噪声两个部分。则,角速度和加速度的观测值一般被表示为:\[\tilde{\boldsymbol{\omega}}(t
  • 2023-10-24GraphPrompt: Unifying Pre-Training and Downstream Tasks for Graph Neural Networks
    目录概符号说明GraphPrompt代码LiuZ.,YuX.,FangY.andZhangX.GraphPrompt:Unifyingpre-traininganddownstreamtasksforgraphneuralnetworks.WWW,2023.概统一的图预训练模型+Prompt微调.符号说明\(G=(V,E)\),图;\(\mathbf{X}\in\mathbb{R}^{|
  • 2023-10-17学习笔记:Graph WaveNet
    GraphWaveNetforDeepSpatial-TemporalGraphModeling用于深度时空图模型的GraphWaveNet期刊:IJCAI2019作者:ZonghanWu,ShiruiPan,GuodongLong,JingJiang,ChengqiZhang论文地址:https://www.ijcai.org/Proceedings/2019/0264代码地址:https://github.com/nnzhan/Gr
  • 2023-10-01学习笔记:GCN
    本文第一部分摘抄自一篇知乎上的回答如何理解GraphConvolutionalNetwork(GCN)?,第二部分是对Kipf这篇GCN论文的学习笔记。目前还没必要都那么细,就“不求甚解”,只知道咋用吧。1不止Kipf的GCNKipf在2017年发S的EMI-SUPERVISEDCLASSIFICATIONWITHGRAPHCONVOLUTIONALNETWORKS
  • 2023-09-28[算法分析与设计] 1. 全源最短路近似
    全源最短路(APSP)近似。有两种近似stretch\(k\).\(\delta(u,v)\leqd(u,v)\leqk\cdot\delta(u,v)\).surplus\(t\).\(\delta(u,v)\leqd(u,v)\leq\delta(u,v)+t\).其中,\(\delta(u,v)\)表示\(u,v\)间真实的最短路长度。先来考虑无权图上的surplus
  • 2023-09-02『学习笔记』狄利克雷生成函数
    定义一般地,对于一个函数\(f\),定义它的狄利克雷生成函数(简写为DGF)为:\[\tilde{F}(x)=\sum_{i\ge1}^\infty\dfrac{f_i}{i^x}.\]即:\[\tilde{F}(x)=f_1+\dfrac{f_2}{i^2}+\dfrac{f_3}{i^3}+\dfrac{f_4}{i^4}+\cdots.①\]性质若\(f\)是积性函数,则一定满足:
  • 2023-08-31迁移学习(CLDA)《CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation》
    Note:[wechat:Y466551|可加勿骚扰,付费咨询]论文信息论文标题:CLDA:ContrastiveLearningforSemi-SupervisedDomainAdaptation论文作者:AnkitSingh论文来源:NeurIPS2021论文地址:download 论文代码:download视屏讲解:click1简介动机:半监督导致来自标记源和目标样本的
  • 2023-08-22SocialLGN Light graph convolution network for social recommendation
    目录概SocialLGN代码LiaoJ.,ZhouW.,LuoF.,WenJ.,GaoM.,LiX.andZengJ.SocialLGN:Lightgraphconvolutionnetworkforsocialrecommendation.InformationSciences,2022.概LightGCN+Social.方法很简单,利于理解socialrecommendation.SocialLGN
  • 2023-05-26Permutation Invariant Graph Generation via Score-Based Generative Modeling
    目录概符号说明本文方法代码NiuC.,SongY.,SongJ.,ZhaoS.,GroverA.andErmonS.Permutationinvariantgraphgenerationviascore-basedgenerativemodeling.AISTATS,2020.概本文利用diffusion进行图的生成,很朴素.符号说明\(\mathbf{A}^{\pi}\),邻接
  • 2023-05-09Personalized Top-N Sequential Recommendation via Convolutional Sequence Embedding
    目录概符号说明Caser代码TangJ.andWangK.Personalizedtop-nsequentialrecommendationviaconvolutionalsequenceembedding.WSDM,2018.概序列推荐的经典之作,将卷积用在序列推荐之上.符号说明\(\mathcal{U}=\{u_1,u_2,\cdots,u_{|\mathcal{U}|}\}\),us
  • 2023-05-03普朗克定律不同表达形式之间的转换
    分谱辐射亮度是辐射亮度对波长的一阶导数,普朗克定律描述了分谱辐射亮度与温度和发射电磁波波长之间的关系。由于波长也可以由波数、频率来间接表示,我们见到的普朗克定律可以有如下三种不同的表达形式。下面的推导公式常用于不同单位的分谱辐射亮度之间的转换。一、以波长为参数的
  • 2023-04-20Layer-Dependent Importance Sampling for Training Deep and Large Graph Convolutional Networks
    目录概符号说明MotivationLADIES代码ZouD.,HuZ.,WangY.,JiangS.,SunY.andGuQ.Layer-dependentimportancesamplingfortrainingdeepandlargegraphconvolutionalnetworks.NIPS,2019.概本文在以往的mini-batch的快速算法上进行了改进.符号说明\(\m