首页 > 其他分享 >Lookback Lens:用注意力图检测和减轻llm的幻觉

Lookback Lens:用注意力图检测和减轻llm的幻觉

时间:2024-07-12 11:30:35浏览次数:9  
标签:检测 Lookback Lens llm 幻觉 上下文 注意力

在总结文章或回答给定段落的问题时,大语言模型可能会产生幻觉,并会根据给定的上下文回答不准确或未经证实的细节,这也被称为情境幻觉。为了解决这个问题,这篇论文的作者提出了一个简单的幻觉检测模型,其输入特征由上下文的注意力权重与新生成的令牌(每个注意头)的比例给出。它被称为回看或基于回看比率的检测器。

该方法计算为给定上下文的注意力权重与新生成的令牌的比值。在每个时间步,计算每个注意头的回看率,并训练一个线性分类器,称之为Lookback Lens,根据回看率特征检测上下文幻觉,如下图所示

在解码过程中可以进一步整合该检测器,获得可减少幻觉的回看透镜引导解码策略

 

https://avoid.overfit.cn/post/0c18bed0b5b0466984c2ff8ec5a70283

标签:检测,Lookback,Lens,llm,幻觉,上下文,注意力
From: https://www.cnblogs.com/deephub/p/18297967

相关文章

  • AI推介-大语言模型LLMs之RAG(检索增强生成)论文速览(arXiv方向):2024.06.20-2024.07.01
    文章目录~1.AStudyonEffectofReferenceKnowledgeChoiceinGeneratingTechnicalContentRelevanttoSAPPhIREModelUsingLargeLanguageModel2.FromRAGtoRICHES:RetrievalInterlacedwithSequenceGeneration3.SK-VQA:SyntheticKnowledgeGeneration......
  • Ollama完整教程:本地LLM管理、WebUI对话、Python/Java客户端API应用
    老牛同学在前面有关大模型应用的文章中,多次使用了Ollama来管理和部署本地大模型(包括:Qwen2、Llama3、Phi3、Gemma2等),但对Ollama这个非常方便管理本地大模型的软件的介绍却很少。目前,清华和智谱AI联合发布开源的GLM4-9B大模型也能支持Ollama进行本地部署了(本地部署GLM-4-9B清华......
  • LLM大模型: 常用的数据清洗方法总结
    LLM的三大要素:算力:算力的本质是拼财力,普通人是无力改变的;算法/模型结构:目前最流行的还是transformer架构,各种LLM都是基于transformer改细节,暂时没有用新的框架替代transformer。至于后续manba会不会替代transformer架构,有待观察!数据:这块是做LLMpre-train或fine-tune最大......
  • 阿里开源语音理解和语音生成大模型FunAudioLLM
       近年来,人工智能(AI)的进步极大地改变了人类与机器的互动方式,例如GPT-4o和Gemin-1.5等。这种转变在语音处理领域尤为明显,其中高精度的语音识别、情绪识别和语音生成等能力为更直观、更类人的交互铺平了道路。阿里开源大模型FunAudioLLM,一个创新的框架,旨在促进人类与大型......
  • 【LLM大模型】一文带你速通RAG、知识库和LLM!
    检索增强生成(RetrievalAugmentedGeneration,RAG)是一种强大的工具,它通过将企业外部知识整合到生成过程中,增强了大语言模型(LLM)的性能。RAG本质上是通过工程化手段,解决LLM知识更新困难的问题。其核心手段是利用外挂于LLM的知识数据库(通常使用向量数据库)存储未在训练数据集中......
  • 低资源低成本评估大型语言模型(LLMs)
        随着新的大型语言模型(LLMs)的持续发展,从业者发现自己面临着众多选择,需要从数百个可用选项中选择出最适合其特定需求的模型、提示[40]或超参数。例如,ChatbotArena基准测试平台积极维护着近100个模型,以对用户指定的开放式查询进行基准测试。同样,AlpacaEval排行榜对80......
  • 如何训练好一个LLM大语言模型?
    目前,深度学习的影响非常广泛。AI绘画、AI声音克隆、AI大语言模型等等等等。市面上很多资料文章和视频都非常多。以至于让新手甚至在几个小时就可以掌握。但是,再往上呢?在学习深度学习的这个领域。从0到1并不难。只需要会部署项目,能跑通模型就算入门了。但是想要从1跨越到2。甚......
  • 语言模型的进化:从NLP到LLM的跨越之旅
    在人工智能的浩瀚宇宙中,自然语言处理(NLP)一直是一个充满挑战和机遇的领域。随着技术的发展,我们见证了从传统规则到统计机器学习,再到深度学习和预训练模型的演进。如今,我们站在了大型语言模型(LLM)的门槛上,它们正在重新定义我们与机器交流的方式。本文将深入探讨LLM的发展历程、......
  • vLLM与PagedAttention:全面概述
    翻译自:https://medium.com/@abonia/vllm-and-pagedattention-a-comprehensive-overview-20046d8d0c61简单、快速且经济的LLM服务vLLM是一个旨在提高大型语言模型(LLM)推理和服务效率与性能的库。由UCBerkeley开发,vLLM引入了PagedAttention,这是一种新颖的注意力算法,显著优化了注......
  • 城市间货物运输Ⅰ-卡玛(Bellman_ford)
    题目链接:城市间货物运输Ⅰ本篇学习了代码随想录Bellman_ford算法精讲,本题是经典的带负权值的单源最短路问题,Dijkstra求单源最短路问题的前提是图中的边无负权重。当图中的边存在负权重时,就需要使用Bellman_ford算法来进行求解了。Bellman_ford算法的核心思想是对......