首页 > 其他分享 >STAR: A Simple Training-free Approach for Recommendations using Large Language Models

STAR: A Simple Training-free Approach for Recommendations using Large Language Models

时间:2024-10-23 11:00:25浏览次数:1  
标签:检索 Training STAR Language items item tilde wise

目录

Lee D., Kraft A., Jin L., Mehta N., Xu T., Hong L., Chi E. H. and Yi X. STAR: A simple training-free approach for recommendations using large language models. 2024.

本文提出了一种融合语义/协同/时序信息的方法, 使得 LLM 无需微调即可轻松超越传统方法.

符号说明

  • \(u \in U\), user;
  • \(s_i \in I\), item;
  • \(S_u = \{s_1, s_2, \ldots, s_n\}\), 为用户 \(u\) 的交互序列;

STAR

Retrieval

  • 首先, STAR 会通过某个方式为 LLM 检索出一些合适的候选 items.

  • 作者希望, 这个检索方式能够同时考虑到语义和协同信息:

    1. 语义信息: 作者将 item 的一些文本信息 (title, description, category, brand, sales ranking, price) 通过编码模型 (本文采用 text-embedding-004) 进行编码, 然后计算两两的 cosine 相似度 \(R_S \in \mathbb{R}^{|I| \times |I|}\).
    2. 协同信息: 令 \(C \in \mathbb{R}^{|I| \times |U|}\), \(C_{iu}\) 表示 item \(i\) 出现在对应 user \(u\) 的交互序列中的次数. 然后, 此时 item-item 的协同相似度为, 各自的稀疏行向量的 cosine 相似度. 记为 \(R_C \in \mathbb{R}^{|I| \times |I|}\).
  • 于是, 对于用户 \(u\) (其交互序列为 \(S_u = \{s_1, s_2, \ldots, s_n\}\)), 其对 item \(x \in I\) 的打分定义为:

    \[\text{score}(x) = \frac{1}{n} \sum_{j=1}^n r_j \cdot \lambda^{n - j + 1} \cdot [a \cdot R_S[x, j] + (1 - \alpha) \cdot R_C [x, j]]. \]

    其中 \(r_j\) 是 user 给 item \(s_j\) 的打分, \(\lambda \in (0, 1]\) (比如 0.7) 用于建模越近的 item 越重要这一特性, \(\alpha \in (0, 1)\) 用于平衡语义信息和协同信息. 这些都是超参数.

Ranking

  • 假设, 我们通过上面的策略检索出 top-K 个候选 items, 我们希望对这些候选 items 排个序.

  • Point-wise: 这个方法很简单, 把每个 item 的结果通过上述方式传给大模型, 然后用大模型得到一个分数, 倘若有两个 item 分数一样, 则采用之前的检索的方式的排序.

  • Pair-wise:

    • 假设候选 items 按照检索排名为 (从高到低):

      \[i_1, i_2, \ldots, i_{K-2}, i_{K-1}, i_K. \]

    • 然后首先让 LLM 判断 \(i_{K-1}, i_K\) 的次序, 倘若 \(i_{K} > i_{K-1}\) 则交换二则的次序得到:

      \[\tilde{i}_1 = i_1, \tilde{i}_2 = i_2, \ldots, \tilde{i}_{K-2} = i_{K-2}, \tilde{i}_{K-1} = i_K, \tilde{i}_{K} = i_{K-1}, \]

      否则保持原样.
    • 然后再排序 \(\tilde{i}_{K-2}, \tilde{i}_{K-2}\), 重复上述操作.
  • List-wise:

    • 这是上述 pair-wise 的一个推广, 设定一个滑动窗口 \(w\) 和滑动步长 \(d\), 每一次对一个窗口内的 items 进行排序, 然后不断滑动.

最后的结果

  • 其实可以发现, 最最重要的, 其实是检索的效率很高啊.

标签:检索,Training,STAR,Language,items,item,tilde,wise
From: https://www.cnblogs.com/MTandHJ/p/18495929

相关文章

  • ReactOS寻找病返回最小StartingAddress所在结点。
    ReactOS寻找病返回最小StartingAddress所在结点。MmIterateFirstNode()函数文章目录ReactOS寻找病返回最小StartingAddress所在结点。MmIterateFirstNodeMmIterateFirstNode/*INCLUDES*****************************************************************/#incl......
  • NewStar2024-week3-Crypto
    古典密码不想看而且最近很忙,wp就贴exp了Crypto不用谢喵fromCrypto.CipherimportAESfromCrypto.Util.numberimport*importosKEY=b"fake_key_fake_ke"FLAG="flag{fake_flag_fake_flag}"defdecrypt(c):AES_ECB=AES.new(KEY,AES.MODE_ECB)......
  • 华为鸿蒙Next:应用启动框架AppStartup的解析与实战应用
    本文旨在深入探讨华为鸿蒙HarmonyOSNext系统(截止目前API12)的技术细节,基于实际开发实践进行总结。主要作为技术分享与交流载体,难免错漏,欢迎各位同仁提出宝贵意见和问题,以便共同进步。本文为原创内容,任何形式的转载必须注明出处及原作者。在华为鸿蒙(HarmonyOS)开发领域,应用的启......
  • 论文阅读-ArtVLM: Attribute Recognition Through Vision-Based Prefix Language Mode
    摘要识别并从对象中分离视觉属性是许多计算机视觉应用的基础。虽然像CLIP这样的大型视觉-语言表示在很大程度上解决了零样本对象识别的任务,但零样本视觉属性识别仍然是一个挑战,因为CLIP通过对比学习得到的视觉-语言表示无法有效捕捉对象-属性依赖关系。在本文中,我们针对这一弱点......
  • Towards Explainable Traffic Flow Prediction with Large Language Models
    <s>[INST]<<SYS>>Role:Youareanexperttrafficvolumepredictionmodel,thatcanpredictthefuturevolumevaluesaccordingtospatialtemporalinformation.Wewantyoutoperformthetrafficvolumepredictiontask,consideringthenea......
  • NewStarCTF-WP合集
    梦开始的地方第一~二周misc-decompress将所有压缩文件放在一个目录,使用Bandizip解压.001,然后使用md5计算器计算内部内容,即可获得flagmisc-用溯流仪见证伏特台首先进入所给链接找到威胁盟报告,发现由于b站原因导致视频不清晰,于是下载央视频后搜索该新闻,再读出信息powerj7km......
  • Adapting Open-Source Large Language Models for Cost-Effective, Expert-Level Clin
    本文是LLM系列文章,针对《AdaptingOpen-SourceLargeLanguageModelsforCost-Effective,Expert-LevelClinicalNoteGenerationwithOn-PolicyReinforcementLearning》的翻译。采用开源大型语言模型,通过策略强化学习生成经济高效的专家级临床笔记摘要1引言2......
  • A review on the use of large language models as virtual tutors
    本文是LLM系列文章,针对《Areviewontheuseoflargelanguagemodelsasvirtualtutors》的翻译。关于使用大型语言模型作为虚拟导师的综述摘要1引言2方法3分析和讨论4结论摘要Transformer架构有助于管理自然语言处理的长期依赖关系,这是该领域的最新......
  • 乘风破浪,扬帆出海,Praxis Language旗下基于播客形式的英语学习平台之English Pod 365
    什么是EnglishPod365EnglishPod365是PraxisLanguage旗下的一款英语学习平台。PraxisLanguage是一家教育技术公司,专门开发基于播客(podcast)形式的语言学习平台,除了EnglishPod,他们还开发了类似的语言学习产品,如ChinesePod、SpanishPod和FrenchPod等。EnglishPod365是......
  • 第四届教育,语言与艺术国际学术会议 2024 4th International Conference on Education,
    文章目录一、会议详情二、重要信息三、大会介绍四、出席嘉宾五、征稿主题六、咨询一、会议详情二、重要信息大会官网:https://ais.cn/u/vEbMBz提交检索:EICompendex、IEEEXplore、Scopus三、大会介绍第四届教育,语言与艺术国际学术会议(ICELA2024)将于2024年11月2......