首页 > 其他分享 >Recommendation as Instruction Following: A Large Language Model Empowered Recommendation Approach

Recommendation as Instruction Following: A Large Language Model Empowered Recommendation Approach

时间:2023-12-09 16:36:00浏览次数:42  
标签:Instruction Language Empowered recommendation 用户 意图 指令 Recommendation

目录

Zhang J., Xie R., Hou Y., Zhao W. X., Lin L., Wen J. Recommendation as instruction following: a large language model empowered recommendation approach. 2023.

通过指令跟随来利用大模型进行推荐, 本文介绍了不同的指令的模板, 覆盖多种任务场景.

InstructRec

  • 首先作者对用户的偏好, 意图, 和推荐的任务类型进行了分类:

  • Preference:

    • None (\(P_0\)): 即我们对用户没有任何了解, 对应那些冷启动用户;
    • Implicit (\(P_1\)): 即我们有用户的一些历史交互记录;
    • Explicit (\(P_2\)): 显式的信息, 可以是用户对商品的打分.
  • Intention:

    • None (\(I_0\)): 即用户没有特别的意图;
    • Vague (\(I_1\)): 用户意图比较模糊, 通常指代一些模糊的需求, 比如"我要给我儿子买礼物";
    • Specific (\(I_2\)): 很直接的意图, 比如 "蓝色,便宜, iPhone13".
  • Task Form:

    • Pointwise recommendation (\(T_0\)): 即给一个候选的商品, 判断是不是适合用户;
    • Pairwise recommendation (\(T_1\)): 从一对商品中选择更合适的;
    • Matching (\(T_2\)): 要求给出一些合适的候选商品;
    • Reranking (\(T_3\)): 要求给一系列候选商品重排序.
  • 有了对偏好/意图/任务的区分后, 我们就会有多种模板, 本文主要考虑如下的几种:

Instruction Generation

  • 当然, 上面只是给出了一些模板, 倘若我们希望大模型能够具备指令跟随的能力, 还需要一些数据去训练, 也就是生成一些具体的指令用于微调.

  • 本文通过一个较强的大模型 (如 GPT-3.5) 去生成指令.

  • 实际上, 假设我们有用户的一些的历史交互信息, 也就是说我们有了用户了隐式的偏好, 我们可以让 GPT-3.5 借此给出用户的一个实际偏好, 于是就会有一条 \(\langle P_2, I_0, T_3 \rangle\) 的指令. 其它的指令可以类似地得到, 具体请看原文.

  • 最后的训练, InstructRec 是用在 Fan-T5-XL 的基础上进行的优化.

标签:Instruction,Language,Empowered,recommendation,用户,意图,指令,Recommendation
From: https://www.cnblogs.com/MTandHJ/p/17891118.html

相关文章

  • A Novel Approach Based on Bipartite Network Recommendation and KATZ Model to Pre
    ANovelApproachBasedonBipartiteNetworkRecommendationandKATZModeltoPredictPotentialMicro-DiseaseAssociationsShiruLi 1, MinzhuXie 1, XinqiuLiu 2Affiliations expandPMID: 31803235 PMCID: PMC6873782 DOI: 10.3389/fgene.2019......
  • 【论文阅读笔记】【多模态-Referring & Grounding】 Grounded Language-Image Pre-tra
    GLIPCVPR2022(Oral,BestPaperFinalist)读论文思考的问题论文试图解决什么问题?写作背景是什么?问题:如何将视觉-语言预训练技术应用在以目标检测为代表的fine-grainedimageunderstanding上面?如何在增加训练数据的同时,使目标检测模型具有良好的语义理解能力,能......
  • 《REBEL Relation Extraction By End-to-end Language generation》阅读笔记
    论文来源 代码地址 相关视频(YouTube) 相关概念:1.Whatisnaturallanguageunderstanding(NLU)?Naturallanguageunderstanding(NLU)isabranchofartificialintelligence(AI)thatusescomputersoftwaretounderstandinputintheformofsentencesusin......
  • GLIP:Grounded Language-Image Pre-training
    GroundedLanguage-ImagePre-training目录GroundedLanguage-ImagePre-training简介摘要Introduction统一的损失函数方法总结参考资料GLIPv1:GroundedLanguage-ImagePre-trainingGLIPv2:UnifyingLocalizationandVLUnderstanding代码地址:https://github.com/micr......
  • 国际化-语言代码表-Language Codes
    afAfrikaans南非语af-ZAAfrikaans(SouthAfrica)南非语af Afrikaans 南非语af-ZA Afrikaans(SouthAfrica) 南非语ar Arabic 阿拉伯语ar-AE Arabic(U.A.E.) 阿拉伯语(阿联酋)ar-BH Arabic(Bahrain) 阿拉伯语(巴林)ar-DZ Arabic(Alge......
  • Generative-Contrastive Graph Learning for Recommendation论文阅读笔记
    Abstract首先介绍了一下GCL的一些缺点,GCL是通过数据增强来构造对比视图,然后通过最大化对比视图之间的互信息来提供自监督信号。但是目前的数据增强技术都有着一定的缺点结构增强随机退出节点或边,容易破坏用户项目的内在本质特征增强对每个节点施加相同的尺度噪声增强,忽略的节......
  • 什么是 SAP XML annotation language server
    来自SAP官方的解释:TheXMLannotationlanguageserveraccelerateshowyouworkwithannotationsinthecodeeditor.Context-sensitivecodecompletiondisplayssuggestionsthatarerelevanttowhereyouareintheannotationfileforyourapp.Asyoutypea......
  • Towards Reasoning in Large Language Models A Survey
    Reasoning定义推理:以逻辑和系统的方式进行思考,利用证据和过往经验来得出结论或作出抉择。演绎推理DeductiveReasoning结论来源于前提假设的阳性前提假设:哺乳动物都有肾脏前提假设:鲸是哺乳动物结论:鲸有肾脏归纳推理InductiveReasoning结论来源于观测或者证据......
  • office the language DLL 'VBE7INTL.DLL' is not be found
    其实是缺少vba,安装组件就可以了解决方案:在卸载程序的面板中,找到office,右键选择更改,选择添加或删除功能,勾选如下两项就可以了记得关掉office后再打开就好了......
  • 学习笔记:A Survey on Large Language Model basedAutonomous Agents
    挑选了自己感兴趣的部分整理了一下。目录ASurveyonLargeLanguageModelbasedAutonomousAgents1LLM-AAConstruction1.1ArchitectureDesign2LLM-AAApplication3LLM-AAEvaluation4ChallengeASurveyonLargeLanguageModelbasedAutonomousAgents北大高林学院的......