首页 > 其他分享 >LongBench: 一个双语多任务的长文本理解基准测试

LongBench: 一个双语多任务的长文本理解基准测试

时间:2024-10-22 15:59:19浏览次数:1  
标签:模型 双语 多任务 任务 文本处理 文本 LongBench 评估

LongBench: 开创性的长文本理解评估基准
在人工智能和自然语言处理领域,大语言模型(LLMs)的出现无疑是一场革命。这些模型在各种语言任务中展现出惊人的能力,但它们也面临着一个共同的挑战 - 长文本理解。大多数LLMs只能处理几千个token的输入,这严重限制了它们在处理长篇文档、报告或代码库等场景中的应用。为了推动长文本理解技术的发展,清华大学知识工程实验室(THUDM)团队开发了一个创新性的评估基准 - LongBench。

LongBench的独特之处
LongBench是首个专门针对大语言模型长文本理解能力的双语多任务综合评估基准。它具有以下几个显著特点:

双语评估: LongBench同时包含中文和英文任务,这使得它能够全面评估模型在不同语言长文本上的表现。

多任务覆盖: 该基准包含6大类21个不同任务,涵盖了长文本应用的关键场景,如单文档问答、多文档问答、摘要生成、少样本学习、合成任务和代码补全等。

长文本挑战: LongBench中大多数任务的平均长度在5000到15000词之间,充分测试模型处理长文本的能力。

自动化评估: 考虑到长文本评估可能涉及高昂的人工标注或API调用成本,LongBench采用了完全自动化的评估方法,以最低成本衡量模型的长文本理解能力。

LongBench任务概览

LongBench的构成
LongBench包含以下任务类型:

多文档问答(3个英文任务,1个中文任务)
单文档问答(3个英文任务,1个中文任务)
摘要生成(3个英文任务,1个中文任务)
少样本学习(3个英文任务,1个中文任务)
合成任务(2个英文任务,1个中文任务)
代码补全(2个任务)
总计14个英文任务,5个中文任务和2个代码任务,共4,750条测试数据。这种多样化的任务设置确保了对模型长文本处理能力的全面评估。

LongBench-E: 更均匀的长度分布
除了标准的LongBench,研究团队还提供了LongBench-E。这是一个通过均匀采样构建的测试集,在0-4k、4k-8k和8k+这三个长度区间内有大致相同数量的测试数据。这种设计使得LongBench-E更适合分析模型在不同输入长度下的性能变化。

LongBench的评估结果
LongBench对多个主流大语言模型进行了全面评估,包括GPT-3.5-Turbo-16k、Llama2-7B-chat-4k、LongChat-v1.5-7B-32k、XGen-7B-8k、InternLM-7B-8k、ChatGLM2-6B-32k、Vicuna-v1.5-7B-16k和ChatGLM3-6B-32k等。评估采用零样本(Zero-shot)场景,结果显示了不同模型在长文本理解方面的优劣。

长文本能力雷达图

英文任务评估结果
在英文任务中,ChatGLM3-6B-32k表现最为出色,平均得分达到48.5%。GPT-3.5-Turbo-16k紧随其后,得分为44.0%。这两个模型在各个任务类别中都展现出了较强的长文本处理能力。值得注意的是,尽管Llama2-7B-chat-4k的上下文窗口较小,但在某些任务中仍然表现不俗,特别是在少样本学习任务中。

中文任务评估结果
在中文任务上,ChatGLM3-6B-32k再次领先,平均得分高达52.8%。GPT-3.5-Turbo-16k和ChatGLM2-6B-32k分别以44.5%和41.7%的得分位列第二和第三。这些结果表明,一些模型在处理中文长文本时具有很强的能力,但与英文相比,中文长文本理解仍有提升空间。

不同长度下的性能变化
为了深入分析模型在不同文本长度下的表现,研究团队使用LongBench-E进行了详细评估。结果显示,大多数模型的性能随着文本长度的增加而下降,但下降幅度因模型而异。一些专门针对长文本优化的模型,如ChatGLM3-6B-32k,在较长文本上保持了相对稳定的性能。

不同长度下的性能曲线

LongBench的应用与影响
LongBench的发布对自然语言处理领域产生了深远影响:

推动长文本处理技术进步: 通过提供全面的评估基准,LongBench激励研究人员和开发者改进现有模型,提高它们处理长文本的能力。

揭示现有模型的局限性: 评估结果清晰地展示了当前模型在处理超长文本时的不足,为未来研究指明了方向。

促进多语言长文本处理: 通过同时评估中英文任务,LongBench推动了多语言长文本处理技术的发展。

标准化长文本评估: LongBench为长文本理解能力的评估提供了一个标准化的框架,便于不同模型间的横向比较。

启发新的应用场景: 通过展示长文本处理的可能性,LongBench为开发新的长文本应用提供了灵感。

如何使用LongBench
对于研究人员和开发者而言,LongBench提供了便捷的使用方式:

数据获取: 可以通过Hugging Face数据集直接下载和加载LongBench数据。

评估流程: LongBench团队提供了完整的评估代码,包括模型预测(pred.py)和结果评估(eval.py)。

自定义评估: 用户可以根据需要修改配置文件,以适应不同模型的输入格式和输出长度限制。

扩展评估: 除了标准评估,LongBench还提供了基于检索和摘要的长文本压缩评估代码。

LongBench的未来展望
随着自然语言处理技术的不断进步,LongBench也在持续更新和扩展:

新模型评估: 随着新的长文本处理模型不断涌现,LongBench将继续对它们进行评估和比较。

任务扩展: 未来可能会加入更多类型的长文本处理任务,以覆盖更广泛的应用场景。

多语言扩展: 虽然目前主要关注中英文,但未来可能会扩展到更多语言,以评估模型的多语言长文本处理能力。

实时排行榜: 建立一个动态更新的排行榜系统,实时反映不同模型在LongBench上的表现。

社区贡献: 鼓励研究社区参与LongBench的改进和扩展,使其成为一个持续演进的开放平台。

结语
LongBench的出现标志着长文本理解研究进入了一个新的阶段。它不仅为评估现有模型提供了全面的工具,也为未来的研究和开发指明了方向。随着人工智能技术的不断进步,我们有理由相信,在LongBench等基准的推动下,大语言模型将在不久的将来突破长文本处理的瓶颈,为更广泛的应用场景提供强大支持。
文章链接:www.dongaigc.com/a/longbench-bilingual-multitask-benchmark
https://www.dongaigc.com/a/longbench-bilingual-multitask-benchmark

https://www.dongaigc.com/p/THUDM/LongBench
www.dongaigc.com/p/THUDM/LongBench

标签:模型,双语,多任务,任务,文本处理,文本,LongBench,评估
From: https://www.cnblogs.com/dongai/p/18493134

相关文章

  • 多任务学习算法在推荐系统中的应用
    粗略来看,推荐算法可以简单地分为召回和排序两个阶段。召回模块负责从海量的物品库里挑选出用户可能感兴趣的物品子集,过滤之后通常返回几百个物品。排序模块负责对召回阶段返回的物品集个性化排序,通常返回几十个物品组成的有序列表。总结起来,召回和排序有如下特点:召回层:候选集规......
  • 基于扣子双语博客AI智能体
    一、扣子AI智能体简介在扣子平台,用户可以通过零代码或低代码的方式快速搭建基于AI大模型的各类智能体应用(被称为Bot),并将它们部署到其他网站平台上,也可以通过API将扣子平台的智能体与现有系统集成。这些智能体可以是各种类型的聊天机器人,不仅限于简单的对话功能。通过扣子的插件、......
  • 多任务,多目标优化;多任务优化和多目标优化
    目录多任务多目标优化一、明确优化目标二、收集和分析数据三、建立优化模型四、选择优化算法五、实施优化策略六、监控和评估多任务优化和多目标优化多任务优化多目标优化多任务多目标优化在多用户多任务、多服务器的场景下,进行多任务多目标优化是一个复杂但至关......
  • 基于正则化的多任务联邦
    1.导言现在多任务学习根据实现方法可以粗略地被分为两种,一个是基于神经网络的多任务学习[1][2][3][4],这种多任务学习在CV和NLP取得了大量的应用。 基于神经网络的多任务学习然而我们最根溯源,其实多任务学习最开始并不是基于神经网络的,而是另一种经典的方法——基于正则表示......
  • 【项目实践】CompletableFuture异步编排在多任务并行执行中的使用
    【项目实践】CompletableFuture异步编排在多任务并行执行中的使用一、单次请求处理多任务的场景        在实际项目中,我们经常会遇到一些比较复杂的查询,需要给前端响应一个内容量较大的响应结果。例如在租房系统的app中,点击具体的某个房间查看详情,需要后端将这个房间的......
  • 麒麟操作系统的多任务视图工作模式
    麒麟操作系统可以通过建立多个任务视图,使多个工作同时进行,好比同时有多个电脑在工作。开启多任务视图工作模式如下操作:1.鼠标左键单击任务栏左下角“显示任务视图”按钮,如图1。图12.如图2,现有的任务视图就是下方的“工作区1”,还可以点击“新建工作区”按钮添加新的工作区。......
  • 【论文】OmniVec2:一种基于Transformer的新型大规模网络多模态多任务学习
    前言《OmniVec2:ANovelTransformerbasedNetworkforLargeScaleMultimodalandMultitaskLearning》研究背景研究问题:这篇文章提出了一种新的多模态多任务网络及其相关的训练算法,旨在处理来自约12种不同模态的数据,包括图像、视频、音频、文本、深度、点云、时间序列、表格、图......
  • 【项目实践】CompletableFuture异步编排在多任务并行执行中的使用
    【项目实践】CompletableFuture异步编排在多任务并行执行中的使用一、单次请求处理多任务的场景        在实际项目中,我们经常会遇到一些比较复杂的查询,需要给前端响应一个内容量较大的响应结果。例如在租房系统的app中,点击具体的某个房间查看详情,需要后端将这个房间的......
  • Bi-MTDP:通过二值网络加速多任务密集预测,又快又提点 | CVPR 2024
    论文提出二值化多任务密集预测器Bi-MTDP,通过二值神经网络(BNNs)显著加速多任务密集预测模型,同时保持甚至提高模型性能。为了避免信息严重退化而导致二值化带来性能下降,论文引入了深度信息瓶颈层,在前向传播时强制要求下游任务表示满足高斯分布;此外,还引入知识蒸馏机制来纠正反向传播......
  • 【Linux】并发与并行:理解多任务处理的核心概念
    文章目录并发与并行:理解多任务处理的核心概念1.什么是并发?2.什么是并行?3.并发与并行的区别4.并发与并行的共同点与挑战5.选择并发还是并行?6.总结并发与并行:理解多任务处理的核心概念在现代计算中,性能和效率是关键问题。为了提高处理能力,计算机系统利用了并......