首页 > 其他分享 >LLM-TRSR论文阅读笔记

LLM-TRSR论文阅读笔记

时间:2024-08-26 19:38:26浏览次数:4  
标签:摘要 用户 笔记 我们 偏好 LLM 文本 TRSR

Harnessing Large Language Models for Text-Rich Sequential Recommendation论文阅读笔记

Abstract

现存的问题:

​ 当推荐场景中的项目包含丰富的文本信息时,例如在线购物中的产品描述或社交媒体上的新闻标题,LLM 需要更长的文本才能全面描述历史用户行为序列。这给基于 LLM 的推荐器带来了巨大的挑战,例如超长限制、大量时间和空间开销以及模型性能不理想等。

提出方法:

​ 我们在本文中设计了一个新颖的框架,用于利用大语言模型进行文本丰富的序列推荐(LLM-TRSR)。具体来说,我们首先建议对用户的历史行为进行分割,然后采用基于 LLM 的摘要器对这些用户行为块进行摘要。特别是,从卷积神经网络(CNN)和递归神经网络(RNN)模型在用户建模中的成功应用中汲取灵感,我们在本文中引入了两种独特的总结技术,分别是分层总结和递归总结。

​ 然后,我们将包含用户偏好摘要、最近的用户互动和候选项目信息的提示文本构建到基于 LLM 的推荐器中,随后使用监督微调(SFT)技术对其进行微调,以生成我们的最终推荐模型。我们还使用了低库自适应(Low-Rank Adaptation,LoRA)技术进行参数高效微调(Parameter-Efficient Fine-Tuning,PEFT)。

Introduction

​ 然而,在项目具有丰富文本信息的推荐场景中,例如电子商务中的产品标题、媒体平台上的新闻标题,扩展文本对于全面描述用户历史行为序列至关重要,这给 LLM 带来了以下挑战。首先,现有的 LLM 通常对输入长度有限制,例如 GPT-2 ,输入长度为 1,024 个标记,这可能不足以涵盖大量文本信息。其次,由于 Transformer 架构的计算复杂度为

标签:摘要,用户,笔记,我们,偏好,LLM,文本,TRSR
From: https://www.cnblogs.com/anewpro-techshare/p/18381507

相关文章

  • Bellmanford与Spfa解决存在负边权的单源汇最短路问题
    上个文章讲了Dijkstra算法但是Dijkstra算法只能解决单源汇非负边权的最短路问题这次文章来讲单源汇存在负边权的解决方法Bellmanforda和spfa算法二者适用场景区别:一般来说使用spfa就能解决大部分的问题,但问题出现不超过k条边的时候应当使用Bellmanford算法BellmanFord:随意存......
  • Typora 上传到 Github 实现笔记同步管理
    首先在Github上new一个repository,我建的名称是md_notes然后在本地terminal中启动以下命令新建一个sshkey  ssh-keygen-o  生成的publickey就是我们需要的东西,接着再输入catC:\Users\ASUS/.ssh/id_rsa.pub就能获取到生成的密钥复制生成的密钥(两个......
  • 算法的学习笔记—字符串的排列(牛客JZ38)
    ......
  • [我的C语言学习笔记(08)]C语言输入输出以及缓冲区概念
    查阅stdio.h标准库(https://cplusplus.com/reference/cstdio/),可以发现不少输入输出函数。这些是格式输入输出:这些是字符(包括字符串,也即字符数组)输入输出:这篇会介绍几个常用函数的用法,同时介绍缓冲区的概念。文章目录stream的概念输出printf函数putchar函数pu......
  • 计算机视觉与深度学习-01-计算机视觉相关介绍-北邮鲁鹏老师课程笔记
     一.图像处理vs计算机视觉图像处理输入是图像或视频,输出也是图像或视频。计算机视觉输入是图像或视频,输出不仅限于图像或视频,还可以是语义标签、3维场景的结构信息等,更强调的是图像或者视频内容的输出。二.计算机视觉介绍人类的对智能的传统评价不能用来评价机器!计算......
  • ATF:一种用于在存在无关信息时增强LLM推理的分析到过滤提示方法
    在过去的几年里,随着大型语言模型(LLM)的出现,人工智能领域取得了巨大的发展。这些模型在众多应用中,尤其是在复杂推理任务中,展现出强大的工具作用。通过对大规模数据集的训练,LLM能够理解和生成类似人类的文本,从回答问题到进行有意义的对话。然而,一个重大障碍依然存在——LLM在处理......
  • AlphaGo Zero论文《Mastering the game of Go without human knowledge》阅读笔记
    AlphaGoZero论文阅读笔记原论文:《MasteringthegameofGowithouthumanknowledge》简述:论文提出了一种新的围棋人工智能算法AlphaGoZero,该算法可以在完全无监督的情况下进行训练,并且超越了之前的AlphaGoFan和AlphaGoLee的表现。该算法具有如下特点:在无监督的情况......
  • 2024年秋季招聘:大型语言模型(LLM)相关面试题汇总
    0一些基础术语大模型:一般指1亿以上参数的模型,但是这个标准一直在升级,目前万亿参数以上的模型也有了。大语言模型(LargeLanguageModel,LLM)是针对语言的大模型。175B、60B、540B等:这些一般指参数的个数,B是Billion/十亿的意思,175B是1750亿参数,这是ChatGPT大约的参数规模。强......
  • Part4-DOM学习笔记-获取元素属性及节点操作
    6.获取元素属性6.1获取元素属性获取元素的属性有两种方式:element.属性:获取内置属性值,元素本身自带的属性不能获取自定义属性代码示例如console.log(div.id)element.getAttribute(‘属性’):可以获取内置属性值可以获取自定义属性代码示例如下:console.......
  • OpenCV开发笔记(七十九):基于Stitcher类实现全景图片拼接
    前言  一个摄像头视野不大的时候,我们希望进行两个视野合并,这样让正视的视野增大,从而可以看到更广阔的标准视野。拼接的方法分为两条路,第一条路是stitcher类,第二条思路是特征点匹配。  本篇使用stitcher匹配,进行两张图来视野合并拼接。 Demo   两张图拼接过......