首页 > 其他分享 >Unbiased Knowledge Distillation for Recommendation

Unbiased Knowledge Distillation for Recommendation

时间:2023-09-26 20:13:09浏览次数:45  
标签:mathbf Knowledge UnKD sum Distillation Unbiased mathcal

目录

Chen G., Chen J., Feng F., Zhou S. and He X. Unbiased knowledge distillation for recommendation. WSDM, 2023.

考虑流行度偏差的知识蒸馏, 应用于推荐系统.

UnKD

  • Motivation 就不讲了, 感觉不是很强烈.

  • 方法很简单, 就是将按照流行度给 items 进行分组 (实际上, 实验中仅仅分了两个组).

  • 然后, 对每个用户, 每个 group 进行组内的排序, 然后按照排名采样正负样本 (话说负样本的概率分布是啥?):

    \[p_i \propto e^{-rank(i) / \mu}. \]

  • 接着, 计算如下的蒸馏损失:

    \[\mathcal{L}_{G} = -\sum_{u} \frac{1}{|\mathcal{U}|} \sum_{g \in \mathcal{G}} \sum_{(i^+, i^-) \in \mathcal{S}_{ug}} \log \sigma (\mathbf{e}_u^T \mathbf{e}_{i^+} - \mathbf{e}_u^T \mathbf{e}_{i^-}). \]

  • 最后的损失为:

    \[\mathcal{L} = \mathcal{L}_R + \lambda \mathcal{L}_G. \]

代码

[official]

标签:mathbf,Knowledge,UnKD,sum,Distillation,Unbiased,mathcal
From: https://www.cnblogs.com/MTandHJ/p/17731031.html

相关文章

  • [论文阅读] Anomaly detection via reverse distillation from one-class embedding
    Anomalydetectionviareversedistillationfromone-classembeddingIntroduction在知识蒸馏(KD)中,知识是在教师-学生(T-S)对中传递的。在无监督异常检测的背景下,由于学生在训练过程中只接触到正常样本,所以当查询是异常的时候,学生很可能会产生与教师不一致的表示。然而,在实际情......
  • DE-RRD: A Knowledge Distillation Framework for Recommender System
    目录概DE-RRDDistillationExperts(DE)RelaxedRankingDistillation(RRD)代码KangS.,HwangJ.,KweonW.andYuH.DE-RRD:Aknowledgedistillationframeworkforrecommendersystem.CIKM,2020.概知识蒸馏应用于推荐系统(同时迁移隐层+输出层特征).DE-RRD......
  • Topology Distillation for Recommender System
    目录概TopologyDistillationFullTopologyDistillation(FTD)HierarchicalTopologyDistillation(HTD)代码KangS.,HwangJ.,KweonW.andYuH.Topologydistillationforrecommendersystem.KDD,2021.概一种基于关系的知识蒸馏,这种关系的处理比较特殊.Topolog......
  • Ranking Distillation: Learning Compact Ranking Models With High Performance for
    目录概符号说明RankingDistillation代码TangJ.andWangK.RankingDistillation:Learningcompactrankingmodelswithhighperformanceforrecommendersystem.KDD,2018.概在分类问题上,知识蒸馏一般利用最后的logits,本文希望学生和教师对top-K的items的......
  • ACL2022 paper1 CAKE: A Scalable Commonsense-Aware Framework for Multi-View Knowl
    CAKE:用于多视域知识图谱补全的可扩展常识感知框架ACL2022Abstract  知识图谱存储大规模事实三元组,然而不可避免的是图谱仍然具有不完整性。(问题)以往的只是图谱补全模型仅仅依赖于事实域数据进行实体之间缺失关系的预测,忽略了宝贵的常识知识。以往的知识图嵌入技术存在无效负......
  • 知识图谱Knowledge Spectrum
    基于图的数据结构,由节点(Point)和边(Edge)组成。在知识图谱里,每个节点表示现实世界中存在的“实体”,每条边为实体与实体之间的“关系”。知识图谱是关系的最有效的表示方式。通俗地讲,知识图谱就是把所有不同种类的信息(HeterogeneousInformation)连接在一起而得到的一个关系网络。......
  • Time-aware Path Reasoning on Knowledge Graph for Recommendation
    目录概TPRec代码ZhaoY.,WangX.,ChenJ.,WangY.,TangW.,HeX.andXieH.Time-awarepathreasoningonknowledgegraphforrecommendation.TOIS,2022.概本文介绍了一种将时间信息(而非仅仅序列信息)应用到知识图谱上的方法.这里只介绍它对时间信息的提取方......
  • 论文解读(TAMEPT)《A Two-Stage Framework with Self-Supervised Distillation For Cros
     论文信息论文标题:ATwo-StageFrameworkwithSelf-SupervisedDistillationForCross-DomainTextClassification论文作者:YunlongFeng,BohanLi,LiboQin,XiaoXu,WanxiangChe论文来源:2023aRxiv论文地址:download 论文代码:download视屏讲解:click1介绍 动......
  • Mixture-of-Domain-Adapters: Decoupling and Injecting Domain Knowledge to Pre-tra
    1.Abstract经过预训练的语言模型(PLM)表现出在通用领域理解文本的出色能力,同时在特定领域中表现不佳。尽管在大型领域特定语料库上继续预训练是有效的,但调整领域上的所有参数是昂贵的。在本文中,我们研究了是否可以通过只调整几个参数来有效地调整PLM。具体来说,我们将Transformer架......
  • 论文解读(KDSSDA)《Knowledge distillation for semi-supervised domain adaptation》
    Note:[wechat:Y466551|可加勿骚扰,付费咨询]论文信息论文标题:Knowledgedistillationforsemi-supervised domainadaptation论文作者:MauricioOrbes-Arteaga, JorgeCardoso论文来源:2019aRxiv论文地址:download论文代码:download视屏讲解:click1介绍 动机:在注释数......