首页 > 其他分享 >自然语言处理:第五十二章 LongCite:助力RAG应用,让大模型精准找到引用

自然语言处理:第五十二章 LongCite:助力RAG应用,让大模型精准找到引用

时间:2024-10-15 10:48:28浏览次数:3  
标签:RAG LongCite 模型 citation 引用 第五十二章 文本 问答

代码: https://github.com/THUDM/LongCite\

数据:

  • HF:https://huggingface.co/datasets/THUDM/LongCite-45k
  • 魔搭:https://modelscope.cn/datasets/AI-ModelScope/LongCite-45k

模型:

  • HF:https://huggingface.co/THUDM
  • 魔搭:https://modelscope.cn/organization/ZhipuAI

Demo :https://huggingface.co/spaces/THUDM/LongCite

论文: https://arxiv.org/abs/2409.02897

视频: https://www.bilibili.com/video/BV1QD4zexEU2/



写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!

写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!

写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!


超长的上下文窗口已经成为最新一代语言模型的标配,例如GLM-4-9B-1M,Gemini 1.5等,这种模型常常被广泛应用于长文档问答场景。

然而,当前的长文本模型并没有在其回答中标注出每句话在原文中的依据,而由于文档过长,用户很难去验证模型提供的信息。此外,模型的输出也常常会出现幻觉,并不忠于原文,这严重影响了模型的可信性。

针对这一问题,通常会通过RAG或者后处理的方式,让大模型在回复中加入引用信息。这种方式在开放域问答和智能搜索引擎(例如 New Bing,Perplexity AI)中被广泛应用。

但 RAG 在长文本问答中,往往会丢失文本信息,使得模型回复的正确性下降。而后处理方式会让pipeline变得特别复杂,用户需要等待很长时间。

我们不仅要问,我们是否可以让模型具备生成回答的同时直接生成引用,同时既不丢失文本信息,又不增加处理时间?

经过深入的思考和实验,我们找到了一种方案:用带有细粒度引用的标注数据,SFT微调模型。

效果如下:

图片

可以看到,训练的模型 LongCite 无论在引用质量,还是回复正确性都处于较高水平。

一、能力评测:LongBench-Cite

在训练模型之前,我们首先需要确定如何评测模型生成引用的能力。

我们提出了LongBench-Cite 的评测方法。这个评测集包含了来自LongBench-Chat 和 LongBench的共计 1000 条长文本问答数据,涉及单文档问答、多文档问答、文档总结等常见任务。

与以往的工作不同,我们在 LongBench-Cite 中会更加注重评测细粒度的句子级引用 —— 把引用的内容定位到句子级别。

LongBench-Cite从两个维度上,由GPT-4o进行自动判断:

  • 正确性:
    • Correctness:回答是否正确,与标准答案契合;
    • Correctness Ratio: 与普通长文本问答相比,加入引用后Correctness是否受损。
  • 引用质量:
    • Citation Recall: 回答中的每个事实性陈述 (statement) 是否被对应的citation所支持;
    • Citation Precision:每个citation是否包含了对应的statement的信息,不是无关的;
    • Citation F1: 2 * (R * P) / (R + P),综合考虑recall和precision;
    • Citation Length: 每个citation对应文本的长度(token数)。长度越短,说明粒度越细、定位越精准。

那么现有的这些长文本模型在 LongBench-Cite 上表现如何呢?我们采用 in-context learning的设定,即给一个示例的方式,进行测试。

图片

从上图可以看出

  • 开源模型citation f1很低,经常生成错误的或是不符合格式的引用;
  • 闭源模型citation length普遍很高,引用粒度甚至比chunk-level citation还粗,需要进一步精准定位。例如,GPT-4o平均每个引用包含了原文中的6句话

图片

此外,In-context learning 也使得模型长文本回答能力受损,correctness ratio (CR) 普遍小于100%。

二、数据构造:CoF

根据我们的深入分析和实验,我们发现若想让模型本身拥有较强的细粒度的引用能力,只需要用较好的带有细粒度引用的长文本问答数据,对模型做 SFT 即可。

那么问题是,如何构造这样的数据?

我们提出了 CoF(Coarse to Fine)的方法,并利用现有长文本模型来自动构造数据。构造方法遵循两个原则:

  • 原则一:充分利用现有模型的长文本能力,保证问答的质量。采用后处理的方式,先用普通的长文本问答得到答案,再往里加引用。
  • 原则二:生成的citiation质量要高,粒度也要细。先生成粗粒度的chunk-level citation,再从中抽取出细粒度的sentence-level citation。

整个pipeline共分为 4步:

图片

第一步,问题生成。使用self-instruction的方法,自问自答生成长文本问答对。

第二步,生成chunk-level citation。使用答案中的句子从原文检索出相关片段。再通过 in-context learning 的方式让大模型把原有答案分成statements并加入chunk-level citation。

第三步,抽取sentence-level citation:对于每个statement,将其对应的chunk-level citation中的句子补充完整,并将每个句子编号。再让大模型通过in-context learning从chunk中抽取出支持该statement的句子编号。最后根据句子在原文中的位置重新标号,得到最终的sentence-level citation。

第四步,数据筛选。将前几步的数据整理,得到最后的带有sentence-level citation的长文本问答数据。筛去引用过少的数据。这些数据可能没有忠于原文,包含有幻觉。

我们在 LongBench-Cite 上对 CoF 框架进行了验证,

图片

可以看到,CoF在所有post-hoc方法中取得了最高的citation F1,粒度也较细;与one-pass方法(同时生成答案和引用),CoF可以保证答案的正确性不下降。

通过收集GLM-4预训练语料中的长文档和CoF框架,我们构造了一个大规模的SFT数据集LongCite-45k。数据集包含了 44,600条带有句子级引用的高质量问答数据,其中最长可达128k token。

三、模型训练:LongCite

我们基于支持 128k 上下文的开源模型 GLM-4-9B和 Llama-3.1-8B,并使用 LongCite-45k 和 ShareGPT 数据集进行 SFT 微调,分别得到 LongCite-9B 和 LongCite-8B。

我们在 LongBench-Cite 评测集上对两个模型进行验证。

图片

可以看到LongCite 模型的引用质量明显超过现有的长文本模型:Citation F1最高,且 Citation Length 相比原模型也有明显缩短,在同等F1的情况下,LongCite 模型的Citation Length 比 GPT-4o缩短了一倍还多,能够实现精准的定位。

图片

我们在 LongBench-Chat 上的人类评估,也证明 LongCite模型的引用质量更高。

图片

另一方面,在回答正确性上,LongCite模型也超越了 GPT-4o和Llama-3.1-70B。且相较于普通长文本 SFT 模型,带有引用信息的 SFT 模型可以进一步提高长文本问答的正确性。

从下面的示例中,可以看到,相较于普通长文本 SFT 模型, 1)LongCite模型的幻觉会更少:

图片

2)LongCite 模型可以更均匀地利用上下文信息:

图片

图片

我们也进行了消融实验

图片

LongCite模型的引用能力来源于LongCite-45k数据集而非普通的长文本SFT。CoF中的数据筛选可以显著提高引用质量。

标签:RAG,LongCite,模型,citation,引用,第五十二章,文本,问答
From: https://blog.csdn.net/victor_manches/article/details/142327416

相关文章

  • 微软:LLM在RAG高效使用外部数据综述
    ......
  • 国防科大:反事实验证LLM在RAG的生成质量
    ......
  • 配置GraphRAG索引
    配置GraphRAG索引GraphRAG系统具有高度的可配置性。本页概述了GraphRAG索引引擎的可用配置选项。默认配置模式默认配置模式是开始使用GraphRAG系统的最简单方式。它设计为开箱即用,只需最少的配置。索引引擎管道的主要配置部分如下所述。在默认配置模式下设置GraphRAG的主......
  • 【AI论文精读3】RAG论文综述1-P4-生成和增强
    【AI论文解读】【AI知识点】【AI小项目】【AI战略思考】【AI大项目】【AI应用】P1,P2,P3四、生成在检索之后,直接将所有检索到的信息输入到大语言模型(LLM)中以回答问题并不是一种良好的做法。接下来将从两个方面介绍调整方法:调整检索到的内容和调整大语言模型。4.1上......
  • 你了解#pragma once吗
    什么是#pragmaonce#pragmaonce是一个预处理器指令,用于指示编译器只包含一次该文件。这意味着无论头文件在项目中的其他文件中被多次#include,编译器只会处理一次,从而避免重复定义的问题。作用:确保当前文件在一个编译单元(TranslationUnit)中只被包含一次。用途:防止同一个......
  • 【AI论文精读12】RAG论文综述2(微软亚研院 2409)P4-隐性事实查询L2
    AI知识点总结:【AI知识点】AI论文精读、项目、思考:【AI修炼之路】P1,P2,P3四、隐性事实查询(L2)4.1概述ps:P2有四种查询(L1,L2,L3,L4)的举例对比隐性事实查询是指那些依赖于数据中未立即显现的关联,需要通过常识推理或基本逻辑推断才能得出的查询。这类信息可能分散在多个......
  • Git Large File Storage
    GitLargeFileStoragekeywords:git大文件官网:https://git-lfs.com/github地址:https://github.com/git-lfs/git-lfsGitLFSisacommandlineextensionandspecificationformanaginglargefileswithGit.TheclientiswritteninGo,withpre-compiledbinar......
  • Cognita: 开源RAG框架助力生产级应用开发
    ​Cognita简介Cognita是一个开源的RAG(检索增强生成)框架,由TrueFoundry开发,旨在帮助开发者构建模块化、可扩展的生产级应用程序。与Langchain和LlamaIndex等主要用于快速原型开发的框架不同,Cognita专注于提供一个组织良好的代码库结构,使RAG组件模块化、API驱动且易于扩展。......
  • AWS GenAI LLM Chatbot: 多模型多RAG驱动的聊天机器人解决方案
    aws-genai-llm-chatbotAWSGenAILLMChatbot:打造智能对话新体验在人工智能和自然语言处理技术快速发展的今天,聊天机器人已成为企业与用户交互的重要工具。AWSGenAILLMChatbot项目应运而生,为开发者提供了一个强大而灵活的解决方案,用于在AWS云平台上部署先进的AI驱动聊天......
  • Pywebview 5.2 storage_path传递参数参数无效
    背景pywebview5.2在我测试数据目录时,发现在启动界面后webview目录仍然为空deftest_storage_dir():window=webview.create_window('StorageDirectory',url='https://kimi.moonshot.cn/')webview.start(debug=True,private_mode=False,g......