首页 > 其他分享 >ATF:一种用于在存在无关信息时增强LLM推理的分析到过滤提示方法

ATF:一种用于在存在无关信息时增强LLM推理的分析到过滤提示方法

时间:2024-08-26 16:22:40浏览次数:8  
标签:ATF LLMs 推理 无关 过滤 LLM 方法

在过去的几年里,随着大型语言模型(LLM)的出现,人工智能领域取得了巨大的发展。这些模型在众多应用中,尤其是在复杂推理任务中,展现出强大的工具作用。通过对大规模数据集的训练,LLM能够理解和生成类似人类的文本,从回答问题到进行有意义的对话。然而,一个重大障碍依然存在——LLM在处理问题描述中的无关信息时,推理准确度会下降。这一挑战促使研究人员设计方法,以增强LLM在现实场景中的鲁棒性。

这一研究解决的关键问题之一是无关信息对LLM推理性能的影响。LLM经常在包含无关细节的问题描述中寻求澄清,从而导致错误的推断。在大多数现实应用中,所提供的信息并非全部与当前任务相关。虽然用于在推理过程中引导LLM模型的提示方法是一项重要的发展,但在面对无关内容时,仍有很多需要改进的地方。目前的LLM难以过滤掉这些信息已经被认为是一个基本缺陷。

为了应对这一问题,已有的各种方法被考虑在内。其中最传统的提示方法是标准提示和链式思维提示。这些方法的基准测试通常是在理想的数据集上进行的,即问题描述接近解决方案。然而,当应用到实际场景时,这些方法无一例外地失败了,因为它们没有考虑到误导LLM的信息。现在研究界意识到,必须找到更强大的解决方案,帮助LLM即使在问题描述嵌入了大量无用信息时,也能保持高准确度。

为了弥补现有方法的不足,中国的桂林电子科技大学、广西数字技术研究所和元宇宙应用工程中心的研究人员提出了一种新的方法,称为分析-过滤提示(ATF)。该方法旨在使LLM在执行过程中能够独立决定并过滤掉推理阶段的无关信息。ATF方法分为两个阶段:分析和过滤。在分析阶段,指示LLM将问题描述分解为若干部分,对每一部分进行细粒度分析,以确定其是否包含无用信息。过滤阶段在LLM尝试解决问题之前消除已识别的无关信息。这将减少无用信息的干扰,使推理和输出更加可靠。

ATF技术的工作原理是通过系统地处理问题陈述开始。LLMs(大型语言模型)被提示将输入分解为多个子句并进行分析。随后,根据与问题陈述的相关性,对每个子句进行分析。在训练LLMs过程中,模型会识别并标记与所需信息无关的句子;在下一阶段,这些不相关的句子会被过滤掉。通过这种过滤,问题描述本身被精炼,避免了所有不必要的细节,从而确保LLMs只关注相关信息。这个两步流程极大地提升了模型在推理任务中保持高准确性的能力,即使在误导性或多余内容的情况下。

使用一种新构建的名为GSMIR的数据集对ATF方法进行了实验。该数据集的设计目的是在问题描述中包含无关信息。实验使用了多种提示技术,包括标准提示、链式思维提示和最小到最大提示。令人惊讶的是,这些实验在GSMIR数据集中为增强了ATF方法的LLMs带来了50.2%到74.9%的准确率结果。可以看出,LTM(最小到最大)方法的准确率也从56.7%提高到72.4%。甚至标准提示方法的准确率也提高了3.3%,从18.5%升至整合ATF方法后的21.8%。因此,这些结果清楚地表明,应用ATF方法对控制影响LLMs推理性能的无关信息有着重大影响。

简言之,由桂林电子科技大学、广西数字技术研究所和元宇宙应用工程中心团队付出的努力是LLMs领域的一项重大里程碑。通过ATF方法,研究人员为LLMs提供了一个强大的工具,以提高其对无关信息的鲁棒性。这种方法不仅加强了LLMs的推理能力,还解决了其最关键的限制之一:限制这些模型的应用。GSMIR中ATF方法成功的证据将进一步为LLMs的应用开辟更多的现实世界途径。由于LLMs正在不断发展,类似ATF的方法将被需要以确保其在各种应用中的可靠性和有效性。

总结:

近年来,大型语言模型(LLM)在AI领域取得了显著进展,特别是在复杂推理任务中的表现尤为突出。然而,LLM在处理问题描述中的无关信息时,推理准确度往往会下降。对此,中国的桂林电子科技大学、广西数字技术研究所和元宇宙应用工程中心的研究人员提出了一种名为分析-过滤提示(ATF)的方法。该方法通过将问题描述分解为若干部分,并在尝试解决问题之前消除已识别的无关信息,从而提高了LLM在现实场景中的鲁棒性。实验结果表明,使用ATF方法后,LLM的推理准确度得到显著提升,这一研究成果有望推动LLM在各种实际应用中的可靠性和有效性。

在当今数字化时代,智能技术正悄然改变我们的生活和工作方式。光年AI作为一款智能化私域流量管理工具,不仅能够提升私域流量的转化率,还能精准触达每一个潜在客户。通过利用光年AI,企业可以轻松管理和分析私域流量,从而实现客户的高效增长和长期的市场先机。开启AI时代的私域流量革命,就选光年AI,让您的营销事半功倍,品牌影响力全面提升。

标签:ATF,LLMs,推理,无关,过滤,LLM,方法
From: https://blog.csdn.net/2401_86832311/article/details/141567432

相关文章

  • 2024年秋季招聘:大型语言模型(LLM)相关面试题汇总
    0一些基础术语大模型:一般指1亿以上参数的模型,但是这个标准一直在升级,目前万亿参数以上的模型也有了。大语言模型(LargeLanguageModel,LLM)是针对语言的大模型。175B、60B、540B等:这些一般指参数的个数,B是Billion/十亿的意思,175B是1750亿参数,这是ChatGPT大约的参数规模。强......
  • java计算机毕业设计协同过滤就业系统(开题+程序+论文)
    本系统(程序+源码)带文档lw万字以上 文末可获取一份本项目的java源码和数据库参考。系统程序文件列表开题报告内容研究背景在当今信息爆炸的时代,求职者与岗位之间的匹配效率成为影响就业市场活力的关键因素。传统的招聘方式往往依赖于简历筛选、面试等人工流程,不仅耗时费力......
  • 免费分享一套Java协同过滤推荐算法的SpringBoot+Vue(图书)商城系统【论文+源码+SQL脚
    大家好,我是java1234_小锋老师,看到一个不错的Java协同过滤推荐算法的SpringBoot+Vue(图书)商城系统,分享下哈。项目视频演示【免费】Java协同过滤推荐算法的SpringBoot+Vue(图书)商城系统Java毕业设计_哔哩哔哩_bilibili项目介绍伴随着Internet的蓬勃发展,电子商务也取得了......
  • DMP调研(Data Management Platform-数据管理平台)
    基础概念数据资产CRM、DMP、CDP定义CustomerDataPlatform(CDP,客户数据平台):对于企业来说,CDP是作为全链路运营的核心数据系统。是汇集所有客户数据并将数据存储在统一的、可多部门访问的数据平台中,让企业各个部门都可以轻松使用。这种平台通常包括一个集中的数据库,用于......
  • Qwen2-72B的vLLM部署
    今天尝试本地部署了Qwen2-72B-Instruct-GPTQ-Int4模型,这里记录一下操作的过程。参考:https://qwen.readthedocs.io/zh-cn/latest/deployment/vllm.htmlhttps://docs.vllm.ai/en/stable/serving/openai_compatible_server.htmlhttps://techdiylife.github.io/blog/blog.html?......
  • 基于协同过滤算法商品推荐系统(11011)
     有需要的同学,源代码和配套文档领取,加文章最下方的名片哦一、项目演示项目演示视频二、资料介绍完整源代码(前后端源代码+SQL脚本)配套文档(LW+PPT+开题报告)远程调试控屏包运行三、技术介绍Java语言SSM框架SpringBoot框架Vue框架JSP页面Mysql数据库IDEA/Eclipse开发......
  • REST framework:排序过滤器的使用
    对于列表数据,RESTframework提供了OrderingFilter过滤器来帮助我们快速指明数据按照指定字段进行排序1、在setting中的REST_FRAMEWORK添加配置'DEFAULT_FILTER_BACKENDS':(#这个是指定使用django_filters中的过滤器来进行过滤'django_filters.rest_framework.DjangoFilte......
  • 1、.Net UI框架:Platform Uno - .Net宣传系列文章
    UnoPlatform是一个开源的.NET平台,用于快速构建单代码库原生移动、Web、桌面和嵌入式应用程序。它允许开发者使用熟悉的C#和XAML来创建应用程序,实现在iOS、Android、WebAssembly以及Windows上的运行。UnoPlatform的关键特性包括:1、基于.NET和C#:UnoPlatform......
  • 外网爆火的LLM应用手册来了!内行人都在学的大模型黑书,豆瓣评分高达9.9!!!
    Transformer模型介绍Transformer是工业化、同质化的后深度学习模型,其设计目标是能够在高性能计算机(超级计算机)上以并行方式进行计算。通过同质化,一个Transformer模型可以执行各种任务,而不需要微调。Transformer使用数十亿参数在数十亿条原始未标注数据上进行自监督学......
  • litellm 配置embedding 模型
    litellm对于embedding模型的配置实际与普通模式的配置是一样的,embedding有特定的,同时chat模型也都有embedding能力参考配置通过proxy模式model_list:-model_name:text-embedding-ada-002litellm_params:model:ollama/michaelborck/refu......