对大量文本数据的语料库进行大型语言模型(LLMs)的预训练已经成为一种标准范式。当将这些LLMs用于许多下游应用时,通常还会通过基于RAG的提示或微调,将新知识(例如,时效性新闻或私有领域知识)额外融入预训练模型中。然而,模型获取这些新知识的最优方法论仍然是一个开放的问题。在此背景下,提出了检索增强微调(RAFT),这是一种训练方法,可以提高模型在“开卷”的特定领域环境中回答问题的能力。
前排提示,文末有大模型AGI-CSDN独家资料包哦!
如何最好地为考试做准备?(a) 基于微调的方法通过直接“记忆”输入文档或在不引用文档的情况下回答练习QA来实现“学习”。(b) 另一方面,上下文检索方法未能利用固定领域所提供的学习机会,等同于在没有学习的情况下参加开卷考试。虽然这些方法利用了领域内的学习,但它们未能为开卷考试做好准备。相比之下,© RAFT在模拟的不完美检索环境中引用文档,同时利用问题-答案对进行微调——从而有效地为开卷考试设置做好了准备。
RAFT通过结合检索增强生成(RAG)和监督式微调(SFT),训练模型忽略那些对回答问题没有帮助的文档(称为干扰文档),并引用相关文档中正确的序列来回答问题。这种方法还包括链式思维(Chain-of-Thought)风格的响应,以增强模型的推理能力。
RAFT的核心思想是在训练数据中包含问题(Q)、一组文档(Dk)和从其中一个文档(D*)生成的答案(A*),其中区分了Golden文档(包含答案的文档)和干扰文档。在训练过程中,模型被训练以在存在干扰文档的情况下,从提供的文档和问题中生成答案。RAFT的训练方法不仅使模型能够通过微调学习特定领域的知识,还确保了对不准确检索的鲁棒性。
RAFT方法概述, 左上角的图表展示了提出的方法,即让大型语言模型(LLMs)适应从一组正面和负面文档中阅读解决方案,这与标准的RAG设置形成对比,在标准的RAG设置中,模型是基于检索器的输出进行训练的,这种输出是记忆和阅读的混合体。在测试时,所有方法都遵循标准的RAG设置,提供上下文中检索到的前k个文档。
实验结果表明,RAFT在PubMed、HotpotQA和Gorilla数据集上的性能一致优于监督式微调模型,无论是使用RAG还是没有使用RAG。
不同数据集上评测结果
RAFT与DSF的比较示例: 在HotpotQA数据集上对RAFT和DSF微调模型进行了提示,可以看到DSF模型从上下文中提取了错误的信息。对于“谁是编剧”的问题,它回答了一个电影的名字。而RAFT成功地正确得出了结果。
RAFT: Adapting Language Model to Domain Specific RAG``https://arxiv.org/pdf/2403.10131.pdf``https://github.com/ShishirPatil/gorilla/tree/main/raft
如何学习AI大模型?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用
对于0基础小白入门:
如果你是零基础小白,想快速入门大模型是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!
标签:RAG,AI,模型,学习,文档,RAFT From: https://blog.csdn.net/aolan123/article/details/143178485