首页 > 其他分享 >RLMRec论文阅读笔记

RLMRec论文阅读笔记

时间:2024-08-15 20:50:38浏览次数:4  
标签:表征 mathbf 论文 用户 笔记 建模 LLM RLMRec 文本

Representation Learning with Large Language Models for Recommendation论文阅读笔记

Abstract

现存的问题:

​ 这些基于图的推荐器严重依赖于基于 ID 的数据,可能会忽略与用户和项目相关的有价值的文本信息,导致学习到的表征信息量较少。此外,利用隐式反馈数据会带来潜在的噪音和偏差,给用户偏好学习的有效性带来挑战。

​ 虽然将大型语言模型(LLM)集成到传统的基于 ID 的推荐器中已经引起了人们的关注,但要在实际的推荐器系统中有效实施,还需要解决诸如可扩展性问题、纯文本依赖的局限性以及提示输入限制等挑战。

提出方法:

​ 我们提出了一个与模型无关的框架 RLMRec,旨在利用 LLM 的表征学习功能来增强现有的推荐器。它提出了一种将表征学习与 LLMs 相结合的推荐范式,以捕捉用户行为和偏好的复杂语义方面。RLMRec 融合了辅助文本信号,利用 LLMs 进行用户/项目剖析,并通过跨视图对齐将 LLMs 的语义空间与协作关系信号对齐。这项工作进一步证明了通过互信息最大化纳入文本信号的理论基础,从而提高了表征的质量。

Introduction

​ 近期的推荐算法局限性在于主要依赖于基于 ID 的信息,可能会忽略其他有价值的数据,如与用户和项目相关的丰富文本信息。缺乏这些附加信息会导致所学表征的信息量减少。

​ 在这些基于图的推荐器中,有很大一部分数据是隐式反馈,这可能会引入来自假阴性或偏差(如误点击或人气偏差)的噪声。因此,这些基于 GNN 模型的学习表示在很大程度上依赖于数据的固有质量。这种对数据质量的严重依赖带来了潜在的挑战,因为它可能导致有害的表示,从而阻碍推荐系统的有效性,尤其是在数据包含噪声的情况下。

​ 当前正在积极探索 LLM 如何利用其处理文本内容的能力,将推荐系统的功能扩展到原始数据之外。该领域当前研究的一个主要重点是通过提示设计使推荐方法与语言模型的特点相一致。InstructRec 等方法以指令-问题-回答的形式构建推荐任务,使 LLM 能够同时实现推荐目标和回答复杂设计的问题。然而,这些方法在效率和精确度方面仍然落后于现有的推荐器。这可归因于这种方法的固有缺陷,包括以下几个关键方面:

实际推荐中的可伸缩性问题

​ 在个性化用户行为建模中使用大型语言模型(LLM)需要大量的计算资源。随着用户行为数据规模的扩大,计算需求和相关推理时间成本也在增加

仅限于文本的依赖所引起的限制

​ 由于幻觉问题,LLM 有可能生成文本答案,其中可能包括对不存在的项目的推荐。这对确保所生成建议的准确性和可靠性提出了挑战。此外,提示输入的容量有限,受限于标记的最大数量(例如 LLaMA 的标记数量为 2048 个),妨碍了对具有全局用户依赖性的综合协作信号进行有效建模

​ 本文经过实验发现盲目使用 LLMs 来改进推荐中的重新排序过程存在局限性。这些局限性可归因于三个因素:i) LLM 的幻觉问题,即推荐候选集中没有的项目;ii) 由于标记的限制,缺乏全面的全局基于文本的协作关系输入;iii) 此外,值得注意的是,使用 LLM 完成重新排序过程需要几个小时,这对处理真实世界推荐场景中的大规模数据构成了挑战。

​ 鉴于上述局限性,我们的目标是利用 LLM 的强大功能无缝地增强现有的推荐系统。为此,我们提出了一个称为 RLMRec(Representation Learning with Large Language Models for Recommendation)的模型无关框架。RLMRec 的核心理念是利用表征学习作为基于 ID 的推荐器和 LLM 之间的桥梁。我们的新推荐范式旨在保持现有推荐器的准确性和效率,同时利用大型语言模型强大的文本理解能力来理解用户行为和偏好的复杂语义方面。

​ 首先,我们通过模拟将辅助文本信号纳入表征学习的好处来奠定理论基础。这包括将文本信号转化为有意义的表征,并为在一般推荐模型中实现互信息最大化奠定理论基础。此外,我们还开发了一种由 LLMs 支持的用户/项目剖析范例,通过从 LLMs 的全球知识空间中纳入全面的语义理解来增强表征的表现力。

​ 此外,我们还建议通过跨视图对齐框架来对齐 LLM 的语义空间和协作关系信号的表示空间。这种对齐是通过跨视角互信息最大化方案实现的,它使我们能够找到一个共同的语义子空间,在这个空间中,文本嵌入和协作关系嵌入分别从对比建模和生成建模中得到很好的对齐。

​ 本文的主要贡献如下:

  • 这项工作旨在探索如何利用 LLM,并将其语义空间与协作关系建模相结合,以更好地进行表征学习,从而提高现有推荐系统的推荐性能。
  • 我们提出了一个与模型无关的表征学习框架,称为 RLMRec,它以我们的理论发现为指导。该框架利用对比或生成建模技术来提高所学表征的质量。
  • 我们建立了一个理论基础,以证明结合文本信号增强表征学习的有效性。通过利用互信息最大化,我们展示了文本信号如何提高表征质量

Method

​ 本文的整体框架如下:

pA9ynDU.png

RLMRec的理论基础

协同过滤

​ 这里说本文提出了一个隐藏的先验概率z,在学习表示的时候会涉及这个先验信念和噪声

文本增强的用户偏好学习

​ 这里是引入文本信息作为辅助线索,生成能有效捕捉用户偏好语义方面的表示 s。s 和 e 都能捕捉到与用户-物品交互相关的共享信息。这种共享信息至关重要,因为它表明推荐中包含了有益的方面,与先前的信念 z 保持一致。

​ 协作侧表示 e 和文本侧表示 s 都包含由 z 生成的有益于推荐的信息,我们的目标是通过最大化条件概率来学习 e 的最优值

\(\mathbf{e}^*=\arg\max_{\mathbf{e}}\mathbb{E}_{p(\mathbf{e},\mathbf{s})}[p(\mathbf{z},\mathbf{s}|\mathbf{e})].\)

​ 条件概率最大化背后的基本直觉是确保推荐模型的可学习表征 e 包含更纯粹的信息,这些信息来自先验信念 z 以及与语义表征 s 共享的信息。

​ 然后文章给出了一个结论并且证明,证明中的数学知识较多,这里就不详细解释了,感兴趣可以看原文,这里只把结论列一下

结论1:最大化上面公式中的后验概率相当于最大化cf侧关系表示e和llm侧语义表示之间的互信息\(I(\mathbf{e},\mathbf{s})\)

结论2:通过引入密度比\(f(s,\mathbf{e})\propto p(s|\mathbf{e})/p(\mathbf{s})\)来保留互信息。互信息的最大化可以重新表述为最大化下面的下限:\(\mathbb{E}\log[\frac{f(s_i,e_i)}{\sum_{s_j\in\mathcal{S}}f(s_j,e_i)}].\)

​ 到目前为止,我们已经从理论的角度得出了如何通过引入外部知识来抑制表征中的噪声效应。

​ 然而,这种方法也提出了两个挑战: i)挑战1:如何获得对用户和项目的有效描述,以捕获他们的交互偏好。ii)挑战2:如何有效地建模密度比

标签:表征,mathbf,论文,用户,笔记,建模,LLM,RLMRec,文本
From: https://www.cnblogs.com/anewpro-techshare/p/18361783

相关文章

  • 【公式推导】Elucidating the Design Space of Diffusion-Based Generative Models 【
    ElucidatingtheDesignSpaceofDiffusion-BasedGenerativeModels论文精读关注B站可以观看更多实战教学视频:hallo128的个人空间【更新中】EDM论文精读论文链接(1)论文:ElucidatingtheDesignSpaceofDiffusion-BasedGenerativeModels(2)引用:KarrasT,Aittala......
  • RabbitMQ笔记
    RabbitMQ消息队列是实现应用程序与应用程序进行通信的中间件产品,可以实现各个微服务之间的异步操作。好处:降低系统的耦合度、(用户服务的)快速响应、削峰限流、减少并发压力、便于系统功能的拓展。RabbitMQ的体系结构介绍1.Producer为生产者(发送消息),通过Channel与消息中间件......
  • C语言学习笔记 Day13(复合类型/自定义类型)
    Day13 内容梳理:目录Chapter9 复合类型(自定义类型)9.1结构体(1)结构体变量定义、初始化(2)嵌套结构体(3)结构体赋值(4)结构体和指针(5)结构体做函数参数9.2共用体(联合体)9.3枚举9.4typedef关键字Chapter9 复合类型(自定义类型)9.1结构体有时需要将不同类型的数组......
  • HarmonyOS入门基础笔记
    今天先来写一下,新手学习HarmonyOS时候可能会遇到的问题报错:hvigorERROR:[ArkTsCompilerError[ArkTSCompilerError]:ArKTS:ERRORFailedtoexecutees2abc.ErrorMessage:pandargs:Invalidoption"target-api-sub-version"这是在调试预览(Previewer)的时候遇到的报错,使......
  • [rCore学习笔记 01]安装VMwareWorkStationPro
    写在前面本随笔是非常菜的菜鸡写的。如有问题请及时提出。可以联系:[email protected]:https://github.com/WindDevil(目前啥也没有下载它随便找个地方下载,如果官网下载速度过慢:官网B站微信公众号知乎各大软件站这里附上我使用的版本链接VMware-workstation-f......
  • 【Qt笔记】键盘控制Qt按钮
    目录一、前言二、初始化三、键盘移动后需要选中哪个按钮四、键盘按键处理函数五、实现效果一、前言Qt框架支持通过键盘输入来间接控制界面元素,如按钮,实现无需鼠标操作的交互方式。这通常涉及到键盘事件的监听与处理,比如监听特定的按键事件(如空格键、回车键等),并在这些......
  • [开题报告]FLASK框架物业信息管理系统6ejy0(源码+论文)
    本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。系统程序文件列表开题报告内容研究背景随着城市化进程的加快和居民生活品质的提升,物业管理已成为现代社区不可或缺的一部分。然而,传统的物业管理方式往往依赖于纸质记录和人工处......
  • [开题报告]FLASK框架鲜花坊销售平台19bw3(源码+论文)
    本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。系统程序文件列表开题报告内容研究背景随着教育信息化的不断深入,高校教学管理逐渐向数字化、智能化转型。西安文理学院作为一所致力于提升教学质量与效率的学府,其教学进度管理面......
  • 蒜法笔记(Java)- 堆排序
    逻辑    堆是一种所有父节点都大于等于(大根堆)或小于等于(小根堆)其子节点的完全二叉树。堆排序(升序)就是一种将数组视为一个完全二叉树,将其变为一个大根堆后将堆顶放到数组尾,重复n次后数组有序的排列方法,时间复杂度为O(nlogn)。(感觉好像冒泡哦)    简述:将数组视......
  • Datawhale X 魔搭 AI夏令营 第四期魔搭-AIGC文生图方向Task3笔记
    工具初探一ComfyUI应用场景探索ComfyUI剖析视频:1万字系统剖析ComfyUI|StableDiffusion:GUI全盘点  ComfyUI应用场景视频:ComfyUI应用场景探索官方Github链接:GitHub-ComfyUI官方应用的示例:ComfyUIExamples 工作流分享网站:ComfyWorkflows在魔搭使用ComfyUI:在魔搭......