• 2024-11-01模拟大模型训练时,单双精度输出不一致?从而加剧幻觉?或导致幻觉?
        下面是Python代码。就同样的随机数据,分别在单精度、双精度下做模拟训练与预测,最后比较它们预测的值,发现不一致。    大家看看,代码是否有问题?importnumpyasnpimporttensorflowastffromtensorflow.keras.layersimportDense,LSTMfromtensorfl
  • 2024-10-22Woodpecker: 多模态大语言模型的幻觉纠正先锋
    Woodpecker项目简介在人工智能和自然语言处理领域,多模态大语言模型(MLLMs)的快速发展引人注目。然而,这些模型面临着一个严峻的挑战-幻觉问题。所谓幻觉,指的是模型生成的文本内容与输入图像不一致的现象。为了解决这个问题,研究人员提出了各种方法,其中大多数依赖于特定数据
  • 2024-09-27大模型还能产生幻觉?一文讲清楚原理和解决方法
    “像我们这样相信物理学的人都知道,过去、现在和未来之间的区别只是一种顽固执着的幻觉。换句话说,时间是一种幻觉。”——波尔幻觉,即一种看似真,实为假的感受。最近接触到了一个概念:大模型幻觉。有点好奇,大模型还能产生幻觉?于是查找了一些资料,开始了解。一、大模型幻觉,像你身边那个爱
  • 2024-09-26吉利:通过怀疑建模减轻LLM的幻觉
  • 2024-09-25微软宣称其新工具可纠正人工智能幻觉 但专家依然对此表示怀疑
    人工智能经常胡言乱语,微软现在说它有办法解决这个问题,但我们有理由对此持怀疑态度。微软今天发布了一项名为"更正"(Correction)的服务,它可以自动修改人工智能生成的与事实不符的文本。Correction首先会标记出可能存在错误的文本–例如,公司季度财报电话会议的摘要可能存在错误
  • 2024-09-19通过CLIP引导解码减轻大型视觉-语言模型中的幻觉问题
    人工智能咨询培训老师叶梓转载标明出处大型视觉-语言模型(LVLMs)因其在视觉推理方面的能力而备受瞩目,被视为实现自主操作智能体的重要里程碑。但它在生成文本时容易出现对象幻觉问题,即描述中包含不存在的对象,这严重限制了它们的可靠性和实用性。标题为了解决这一
  • 2024-09-17ANAH: Analytical Annotation of Hallucinations in Large Language Models
    本文是LLM系列文章,针对《ANAH:AnalyticalAnnotationofHallucinationsinLargeLanguageModels》的翻译。ANAH:大型语言模型中幻觉的分析注释摘要1引言2数据集构造3幻觉注释器4实验5相关工作6结论和未来工作7局限性摘要减少大型语言模型(LLM)的
  • 2024-09-13RAG 幻觉检测方法
    RAG幻觉检测方法未经检查的幻觉在今天的检索增强生成应用中仍然是一个大问题。本研究评估了4个公共RAG数据集中流行的幻觉检测器。使用AUROC和精度/召回率,我们报告了G-eval、Ragas和可信语言模型等方法如何能够自动标记不正确的 LLM响应。利用各种幻觉检测方法识别
  • 2024-09-13Google 发布 DataGemma 技术减少 AI 生成错误信息 (即幻觉)
    Google推出了DataGemma,这是基于真实世界数据的两个新Gemma模型版本,旨在减少AI生成中的“幻觉”问题。DataGemma通过利用GoogleDataCommons中超过2400亿个来自可信来源的统计数据,显著提高了模型在处理数值和统计数据时的准确性。DataGemma采用了两种关键技术:检索
  • 2024-09-04支持大模型的小模型
    https://www.arxiv.org/pdf/2408.12748 (SLMMeetsLLM:BalancingLatency,InterpretabilityandConsistencyinHallucinationDetection)平衡会话AI幻觉检测中的延迟、可解释性和一致性介绍大型语言模型(llm)在实时任务(如同步的会话ui)中与延迟作斗争。当额外的开
  • 2024-09-04INSIDE: LLMS’ INTERNAL STATES RETAIN THE POWER OF HALLUCINATION DETECTION
    本文是LLM系列文章,针对《INSIDE:LLMS’INTERNALSTATESRETAINTHEPOWEROFHALLUCINATIONDETECTION》的翻译。INSIDE:LLMS的内部状态保留了幻觉检测的力量摘要1引言2幻觉检查的背景3方法4实验5相关工作6结论摘要知识幻觉引起了人们对部署的LLM的
  • 2024-09-04搞了一年多的RAG,在业务上落地还是很有挑战
    现在提到大模型落地,目之所及所有公司都在做RAG。RAG通过利用外部数据库来增强大模型,很大程度上解决了模型幻觉问题,以及知识更新和数据安全等问题。如果在企业内落地大模型应用,还得从技术侧和业务侧共同入手。技术层面上,大模型的出现带来基于自然语言就能实现的逻辑分析能
  • 2024-09-01PoLLMgraph: Unraveling Hallucinations in Large Language Models via State Transition Dynamics
    本文是LLM系列文章,针对《PoLLMgraph:UnravelingHallucinationsinLargeLanguageModelsviaStateTransitionDynamics》的翻译。PoLLMgraph:通过状态转换动力学揭示大型语言模型中的幻觉摘要1引言2相关工作3PoLLMgraph4实验5结论局限性摘要尽管近
  • 2024-08-29AI 网关零代码解决 AI 幻觉问题
    作者:邢云阳,HigressContributor前言什么是AIAgent随着大模型技术的快速发展,越来越多的公司在实际业务中落地了大模型应用。但是人们逐渐发现了大模型能力的不足。例如:由于大模型的训练数据是有限的,因此一些垂直领域的知识,如金融,医疗等等,大模型无法回答,或者容易出现幻觉。并且
  • 2024-08-14缓解大语言模型(LLM)幻觉方法
    一、提示工程(PromptEngineering)方法1.1检索增强生成(RetrievalAugmentedGeneration,RAG)技术利用外部权威知识库来增强LLM的响应,提高输出的准确性和时效性。1.2自我优化反馈和推理技术使LLM能够自我纠正和提高可靠性。1.3提示微调技术微调提示以提高
  • 2024-08-14多模态大模型中的幻觉问题及其解决方案
    人工智能咨询培训老师叶梓转载标明出处多模态大模型在实际应用中面临着一个普遍的挑战——幻觉问题(hallucination),主要表现为模型在接收到用户提供的图像和提示时,可能会产生与图像内容不符的描述,例如错误地识别颜色、数量或位置等。这种误判可能对实际应用造成严重影响,如在自
  • 2024-08-03AI 海洋中的塞壬之歌:大型语言模型中的幻觉现象综述
    Siren’sSongintheAIOcean:ASurveyonHallucinationinLargeLanguageModels原文链接:https://ar5iv.labs.arxiv.org/html/2309.01219幻觉是什么?LLMs取偶尔会产生看似合理却偏离用户输入、先前生成内容或事实知识的输出——这一现象通常被称为幻觉。幻觉有什么分类?
  • 2024-07-18Datawhale AI 夏令营——CPU部署大模型(LLM天池挑战赛)——Task2与3学习笔记
        Task2的任务是组队+寻找灵感,这里不作阐述;Task3的任务是实现RAG应用,阅读文档并观看卢哥的直播后,结合个人经验做个分享。    运行大语言模型,对LLM使用的加深,我们发现,在使用过程中,大模型会有很多幻觉出现。为了解决幻觉,科研人员提出了各种各样的方案
  • 2024-07-16TaD+RAG-缓解大模型“幻觉”的组合新疗法
    TaD:任务感知解码技术(Task-awareDecoding,简称TaD),京东联合清华大学针对大语言模型幻觉问题提出的一项技术,成果收录于IJCAI2024。RAG:检索增强生成技术(Retrieval-augmentedGeneration,简称RAG),是业内解决LLM幻觉问题最有效的系统性方案。1.背景介绍近来,以ChatGPT为代表的生成式大
  • 2024-07-14Lookback Lens:用注意力图检测和减轻llm的幻觉
    在总结文章或回答给定段落的问题时,大语言模型可能会产生幻觉,并会根据给定的上下文回答不准确或未经证实的细节,这也被称为情境幻觉。为了解决这个问题,这篇论文的作者提出了一个简单的幻觉检测模型,其输入特征由上下文的注意力权重与新生成的令牌(每个注意头)的比例给出。它被
  • 2024-07-12Lookback Lens:用注意力图检测和减轻llm的幻觉
    在总结文章或回答给定段落的问题时,大语言模型可能会产生幻觉,并会根据给定的上下文回答不准确或未经证实的细节,这也被称为情境幻觉。为了解决这个问题,这篇论文的作者提出了一个简单的幻觉检测模型,其输入特征由上下文的注意力权重与新生成的令牌(每个注意头)的比例给出。它被称为回
  • 2024-06-20RAG 如何消除大模型幻觉
    什么是大模型幻觉假设我们有一个基于大型生成模型(如GPT-3)的问答系统,该系统用于回答药企内部知识库中的问题。我们向其提出一个问题:“阿司匹林的主要药理作用是什么?”正确的答案应该是:“阿司匹林主要通过抑制环氧酶(COX)酶的活性,降低前列腺素和血栓素的生成,从而起到抗血小板
  • 2024-05-29微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
    大型语言模型(llm)是在巨大的文本语料库上训练的,在那里他们获得了大量的事实知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在培训结束时被“具体化”。在预训练结束时,模型实际上停止学习。对模型进行对齐或进行指令调优,让模型学习如何充分利用这些知识,
  • 2024-05-27NOI模拟 排序幻觉
    涉及知识点:二进制,贪心题意给一个数组\(a[1],a[2],\ldots,a[n]\),选择一个数\(b\),如果\(b\)满足:\[(a[1]\oplusb)\leq(a[2]\oplusb)\leq\ldots\leq(a[n]\oplusb)\]则称\(b\)是数组\(a\)的幻数。有\(q\)次询问,每次永久修改一个数。对于原数组与每次询问后
  • 2024-05-25Agent 如何更有用
    先看这篇会更连贯Agent的记忆能力学习来源LLM的基础能力1、复杂任务的规划和分解2、遵循复杂指令3、自主使用工具4、减少幻觉一两个人就能开发的有用AIAI的优势:长文本的阅读理解能力、广阔的知识面。1、导游:GPT-4知道很多著名景点,还能做行程规划。2、企业ERP助手