Representation Learning with Large Language Models for Recommendation论文阅读笔记
Abstract
现存的问题:
这些基于图的推荐器严重依赖于基于 ID 的数据,可能会忽略与用户和项目相关的有价值的文本信息,导致学习到的表征信息量较少。此外,利用隐式反馈数据会带来潜在的噪音和偏差,给用户偏好学习的有效性带来挑战。
虽然将大型语言模型(LLM)集成到传统的基于 ID 的推荐器中已经引起了人们的关注,但要在实际的推荐器系统中有效实施,还需要解决诸如可扩展性问题、纯文本依赖的局限性以及提示输入限制等挑战。
提出方法:
我们提出了一个与模型无关的框架 RLMRec,旨在利用 LLM 的表征学习功能来增强现有的推荐器。它提出了一种将表征学习与 LLMs 相结合的推荐范式,以捕捉用户行为和偏好的复杂语义方面。RLMRec 融合了辅助文本信号,利用 LLMs 进行用户/项目剖析,并通过跨视图对齐将 LLMs 的语义空间与协作关系信号对齐。这项工作进一步证明了通过互信息最大化纳入文本信号的理论基础,从而提高了表征的质量。
Introduction
近期的推荐算法局限性在于主要依赖于基于 ID 的信息,可能会忽略其他有价值的数据,如与用户和项目相关的丰富文本信息。缺乏这些附加信息会导致所学表征的信息量减少。
在这些基于图的推荐器中,有很大一部分数据是隐式反馈,这可能会引入来自假阴性或偏差(如误点击或人气偏差)的噪声。因此,这些基于 GNN 模型的学习表示在很大程度上依赖于数据的固有质量。这种对数据质量的严重依赖带来了潜在的挑战,因为它可能导致有害的表示,从而阻碍推荐系统的有效性,尤其是在数据包含噪声的情况下。
当前正在积极探索 LLM 如何利用其处理文本内容的能力,将推荐系统的功能扩展到原始数据之外。该领域当前研究的一个主要重点是通过提示设计使推荐方法与语言模型的特点相一致。InstructRec 等方法以指令-问题-回答的形式构建推荐任务,使 LLM 能够同时实现推荐目标和回答复杂设计的问题。然而,这些方法在效率和精确度方面仍然落后于现有的推荐器。这可归因于这种方法的固有缺陷,包括以下几个关键方面:
实际推荐中的可伸缩性问题
在个性化用户行为建模中使用大型语言模型(LLM)需要大量的计算资源。随着用户行为数据规模的扩大,计算需求和相关推理时间成本也在增加
仅限于文本的依赖所引起的限制
由于幻觉问题,LLM 有可能生成文本答案,其中可能包括对不存在的项目的推荐。这对确保所生成建议的准确性和可靠性提出了挑战。此外,提示输入的容量有限,受限于标记的最大数量(例如 LLaMA 的标记数量为 2048 个),妨碍了对具有全局用户依赖性的综合协作信号进行有效建模。
本文经过实验发现盲目使用 LLMs 来改进推荐中的重新排序过程存在局限性。这些局限性可归因于三个因素:i) LLM 的幻觉问题,即推荐候选集中没有的项目;ii) 由于标记的限制,缺乏全面的全局基于文本的协作关系输入;iii) 此外,值得注意的是,使用 LLM 完成重新排序过程需要几个小时,这对处理真实世界推荐场景中的大规模数据构成了挑战。
鉴于上述局限性,我们的目标是利用 LLM 的强大功能无缝地增强现有的推荐系统。为此,我们提出了一个称为 RLMRec(Representation Learning with Large Language Models for Recommendation)的模型无关框架。RLMRec 的核心理念是利用表征学习作为基于 ID 的推荐器和 LLM 之间的桥梁。我们的新推荐范式旨在保持现有推荐器的准确性和效率,同时利用大型语言模型强大的文本理解能力来理解用户行为和偏好的复杂语义方面。
首先,我们通过模拟将辅助文本信号纳入表征学习的好处来奠定理论基础。这包括将文本信号转化为有意义的表征,并为在一般推荐模型中实现互信息最大化奠定理论基础。此外,我们还开发了一种由 LLMs 支持的用户/项目剖析范例,通过从 LLMs 的全球知识空间中纳入全面的语义理解来增强表征的表现力。
此外,我们还建议通过跨视图对齐框架来对齐 LLM 的语义空间和协作关系信号的表示空间。这种对齐是通过跨视角互信息最大化方案实现的,它使我们能够找到一个共同的语义子空间,在这个空间中,文本嵌入和协作关系嵌入分别从对比建模和生成建模中得到很好的对齐。
本文的主要贡献如下:
- 这项工作旨在探索如何利用 LLM,并将其语义空间与协作关系建模相结合,以更好地进行表征学习,从而提高现有推荐系统的推荐性能。
- 我们提出了一个与模型无关的表征学习框架,称为 RLMRec,它以我们的理论发现为指导。该框架利用对比或生成建模技术来提高所学表征的质量。
- 我们建立了一个理论基础,以证明结合文本信号增强表征学习的有效性。通过利用互信息最大化,我们展示了文本信号如何提高表征质量
Method
本文的整体框架如下:
RLMRec的理论基础
协同过滤
这里说本文提出了一个隐藏的先验概率z,在学习表示的时候会涉及这个先验信念和噪声
文本增强的用户偏好学习
这里是引入文本信息作为辅助线索,生成能有效捕捉用户偏好语义方面的表示 s。s 和 e 都能捕捉到与用户-物品交互相关的共享信息。这种共享信息至关重要,因为它表明推荐中包含了有益的方面,与先前的信念 z 保持一致。
协作侧表示 e 和文本侧表示 s 都包含由 z 生成的有益于推荐的信息,我们的目标是通过最大化条件概率来学习 e 的最优值
\(\mathbf{e}^*=\arg\max_{\mathbf{e}}\mathbb{E}_{p(\mathbf{e},\mathbf{s})}[p(\mathbf{z},\mathbf{s}|\mathbf{e})].\)
条件概率最大化背后的基本直觉是确保推荐模型的可学习表征 e 包含更纯粹的信息,这些信息来自先验信念 z 以及与语义表征 s 共享的信息。
然后文章给出了一个结论并且证明,证明中的数学知识较多,这里就不详细解释了,感兴趣可以看原文,这里只把结论列一下
结论1:最大化上面公式中的后验概率相当于最大化cf侧关系表示e和llm侧语义表示之间的互信息\(I(\mathbf{e},\mathbf{s})\)
结论2:通过引入密度比\(f(s,\mathbf{e})\propto p(s|\mathbf{e})/p(\mathbf{s})\)来保留互信息。互信息的最大化可以重新表述为最大化下面的下限:\(\mathbb{E}\log[\frac{f(s_i,e_i)}{\sum_{s_j\in\mathcal{S}}f(s_j,e_i)}].\)
到目前为止,我们已经从理论的角度得出了如何通过引入外部知识来抑制表征中的噪声效应。
然而,这种方法也提出了两个挑战: i)挑战1:如何获得对用户和项目的有效描述,以捕获他们的交互偏好。ii)挑战2:如何有效地建模密度比
标签:表征,mathbf,论文,用户,笔记,建模,LLM,RLMRec,文本 From: https://www.cnblogs.com/anewpro-techshare/p/18361783