首页 > 其他分享 >A Comprehensive Survey of Accelerated Generation Techniques in Large Language Models

A Comprehensive Survey of Accelerated Generation Techniques in Large Language Models

时间:2024-09-08 11:24:34浏览次数:11  
标签:Language Generation Comprehensive 解码 调查 生成 非自 LLM 模型

本文是LLM系列文章,针对《A Comprehensive Survey of Accelerated Generation Techniques in Large Language Models》的翻译。

大型语言模型中加速生成技术的全面调查

摘要

尽管在大型语言模型 (LLM) 中加速文本生成对于高效生成内容至关重要,但此过程的连续性通常会导致高推理延迟,从而给实时应用程序带来挑战。已经提出和开发了各种技术来应对这些挑战并提高效率。本文对自回归语言模型中的加速生成技术进行了全面调查,旨在了解最先进的方法及其应用。我们将这些技术分为几个关键领域:推测解码、早期退出机制和非自回归方法。我们讨论了每个类别的基本原则、优势、局限性和最新进展。通过这项调查,我们旨在提供对 LLM 技术现状的见解,并为自然语言处理这一关键领域的未来研究方向提供指导。

1 引言

2 推测解码

3 早退

4 非自回归模型

5 讨论和局限性

6 结论

本调查论文探讨了旨在减少与 LLM 推理相关的延迟的加速生成算法。我们探索了各种策略,这些策略可实现并行或更高效的token生成,以加快解码过程,同时保持生成输出的质量。我们的调查包

标签:Language,Generation,Comprehensive,解码,调查,生成,非自,LLM,模型
From: https://blog.csdn.net/c_cpp_csharp/article/details/142023875

相关文章

  • A COMPREHENSIVE SURVEY ON EVALUATING LARGE LANGUAGE MODEL APPLICATIONS IN THE ME
    本文是LLM系列文章,针对《ACOMPREHENSIVESURVEYONEVALUATINGLARGELANGUAGEMODELAPPLICATIONSINTHEMEDICALINDUSTRY》的翻译。关于评估医疗行业中大型语言模型应用程序的综合调查摘要1引言和背景2综述的分类和结构3医学领域LLM应用评估的现状4挑战......
  • 训练BlipForConditionalGeneration
    fromtransformersimportBlipForConditionalGeneration,BlipProcessor,AutoTokenizer,AdamWfromPILimportImagefromdatasetsimportload_datasetprocessor=BlipProcessor.from_pretrained("huggingface.co/Salesforce/blip-image-captioning-base")......
  • (多模态)MedM2G: Unifying Medical Multi-Modal Generation via CrossGuided Diffusion
    1.摘要医学生成模型以其高质量的样本生成能力而闻名,加速了医学应用的快速增长。然而,目前的研究主要集中在针对不同医疗任务的单独医学生成模型上,受限于医学多模态知识的不足,制约了医学的综合诊断。在本文中,我们提出MedM2G,即医学多模态生成框架,其关键创新是在统一模型内对齐......
  • (多模态)CoDi:Any-to-Any Generation via Composable Diffusion
    摘要我们提出了可组合扩散(CoDi),这是一种新的生成模型,能够从任何输入模式组合生成任何输出模式组合,如语言、图像、视频或音频。与现有的生成式人工智能系统不同,CoDi可以并行生成多种模式,其输入不限于文本或图像等模式的子集。尽管缺乏许多模式组合的训练数据集,但我们建议在输......
  • PoLLMgraph: Unraveling Hallucinations in Large Language Models via State Transit
    本文是LLM系列文章,针对《PoLLMgraph:UnravelingHallucinationsinLargeLanguageModelsviaStateTransitionDynamics》的翻译。PoLLMgraph:通过状态转换动力学揭示大型语言模型中的幻觉摘要1引言2相关工作3PoLLMgraph4实验5结论局限性摘要尽管近......
  • Social Skill Training with Large Language Models
    本文是LLM系列文章,针对《SocialSkillTrainingwithLargeLanguageModels》的翻译。大型语言模型的社交技能训练摘要1引言2角色和模拟的LLM3APAM框架4安全部署愿景5技术挑战6评估7讨论8总结与展望摘要人们依靠解决冲突等社交技能进行有效沟通,......
  • Comprehensive Diagnostic Capabilities The Perkins EST Interface 2024A with WiFi
     Intoday'sfast-pacedworld,havingtherighttoolscanmakeallthedifference,especiallywhenitcomestomaintainingandservicingengines.ThePerkinsEST(ElectronicServiceTool)Interface2024AwithWiFiisacutting-edgediagnostictoolde......
  • OpenAI Images Generations API 申请及使用
    OpenAIImagesGenerationsAPI申请及使用DALL-E3是OpenAI开发的两个版本的图像生成模型,它们能够根据文本描述生成高质量的图像。本文档主要介绍OpenAIImagesGenerationsAPI操作的使用流程,利用它我们可以轻松使用官方OpenAIDALL-E的图像生成功能。申请流程......
  • BAdam A Memory Efficient Full Parameter Optimization Method for Large Language M
    目录概BAdam代码LuoQ.,YuH.andLiX.BAdam:Amemoryefficientfullparameteroptimizationmethodforlargelanguagemodels.arXivpreprint,2024.概本文介绍了一种Blockcorrdinatedescent(BCD)的训练方式.BAdam当模型本身很大的时候,训练它会成为一......
  • SwapPrompt(论文解读): Test-Time Prompt Adaptation for Vision-Language Models
    2023(NeuralIPS)摘要测试自适应(TTA)是无监督域自适应(UDA)中一种特殊且实用的设置,它允许源域中的预训练模型去适应另一个目标域中的未标记测试数据。为了避免计算密集型的骨干网络微调过程,因此利用预训练视觉语言模型(例CLIP、CoOp)zero-shot的泛化潜力,仅对未见测试域的运行时......