acl论文汇总原文链接:https://blog.csdn.net/weixin_52171642/article/details/131763613
顺序 摘要 结论 导言 相关工作 模型 实验 评论
ACL When Not to Trust Language Models: Investigating Effectiveness of Parametric and Non-Parametric Memories 自适应选择少见实体加检索
摘要:尽管大型语言模型(LMs)在不同的任务上有令人印象深刻的表现,但在需要丰富的世界知识的任务上仍然很吃力,这意味着在其参数中编码大量的世界知识是很困难的。本文旨在通过对两个以实体为中心的开放领域QA数据集进行大规模的知识探测实验,了解LM在记忆事实知识方面的优势和局限:PopQA是我们的新数据集,包含14000个关于长尾实体的问题,而EntityQuestions是一个广泛使用的开放域QA数据集。我们发现,LM在处理不太常见的事实性知识时很吃力,而检索增强在这些情况下有很大帮助。另一方面,扩展主要提高了对常见知识的记忆,而对尾部事实性知识的记忆则没有明显的改善。基于这些发现,我们设计了一种新的检索增强方法,通过只在必要时检索非参数记忆来提高性能并降低推理成本。
关键词:开放领域QA;检索增强
csdn论文讲解Re49:读论文 When Not to Trust Language Models: Investigating Effectiveness of Parametric and Non-Parame-CSDN博客
标签:检索,知识,记录,论文,QA,记忆,Parametric From: https://www.cnblogs.com/piaoguo326/p/18052580