首页 > 其他分享 >RAG(Retrieval-Augmented Generation)技术

RAG(Retrieval-Augmented Generation)技术

时间:2024-10-25 21:20:16浏览次数:3  
标签:检索 RAG Generation 查询 索引 文档 Retrieval 向量

RAG(Retrieval-Augmented Generation)技术是一种结合检索与生成能力的知识增强方案,专门用于应对复杂多变的信息查询和生成挑战。其核心在于结合先进的向量数据库与大模型的智能问答能力,使得AI系统能够更准确地理解和回应用户的需求。而混合检索作为RAG技术中的关键组成部分,结合了基于关键字的稀疏检索和基于语义的密集检索,以充分利用这两种方法的优势,提高从数据库或知识库中检索信息的准确性和效率。以下是对AI如何匹配RAG知识库中的混合检索的详细介绍。

一、RAG技术概述

在大模型爆发的时代,快速准确地从大量数据中检索出有价值的信息变得至关重要。RAG技术结合了传统的信息检索和最新的大语言模型(LLM),不仅能够回答复杂的查询,还能在此基础上生成信息丰富的内容。其核心在于将大型语言模型的生成能力与特定数据源的检索相结合,使得模型在面对用户提出的问题时,不仅依赖于自身训练时的知识,还可以实时地从外部数据源中检索相关信息,以此增强回答的准确性和丰富性。

RAG技术的实现依赖于向量数据库、语言大模型和问答推理框架三个核心部件:

  1. 向量数据库:用来存放向量化之后的知识库,并提供向量检索能力,为RAG系统实现对知识的初步检索。向量数据库通常被用来存储、索引和管理由深度神经网络和其他机器学习(ML)模型生成的大规模嵌入向量。
  2. 语言大模型(LLM):用来实现基于检索到的知识的推理和答案生成。
  3. 问答推理框架:主要用来实现RAG系统的问答逻辑。它接收用户的提问输入,并根据输入向向量数据库发起索引请求,将得到的索引结果与问题结合,形成新的提示词(prompt),并将提示词提交给LLM,最后将LLM生成的结果返回给用户。

二、混合检索原理

混合检索结合了基于关键字的稀疏检索和基于语义的密集检索,以提高检索的准确性和效率。以下是这两种检索方法的详细介绍:

1. 稀疏检索

稀疏检索通过关键字匹配进行,利用TF-IDF、BM25等技术,根据确切的关键字匹配搜索文档。对于已知确切术语的精确查询,这种方法既快速又有效。

稀疏检索的关键步骤包括:

  • 分词:将文档和查询语句拆分成单个词语或词组。
  • 索引构建:为文档创建倒排索引,以便快速定位包含特定关键字的文档。
  • 查询处理:将查询语句转换为可用于关键字匹配的形式。
  • 结果检索:根据查询语句中的关键字,在倒排索引中查找匹配的文档。
  • 分数计算:使用TF-IDF或BM25等算法计算每个文档的得分,以反映其与查询语句的相关性。

稀疏检索的优势在于能够快速缩小文档集的范围,并处理精确的关键字匹配。然而,它对于同义词和上下文的理解有限,可能导致相关文档因词汇不匹配而被忽视。

2. 密集检索

密集检索利用嵌入(向量表示)来理解查询和文档的上下文和含义,这使得即使查询中不存在确切的关键字,也能检索到相关信息。向量相似度则通过余弦相似度或欧几里得距离等指标来衡量查询和文档向量之间的相似性。

密集检索的关键步骤包括:

  • 嵌入生成:使用预训练模型(如BERT、RoBERTa或SentenceTransformer)将文档和查询语句转换为高维向量。
  • 索引构建:为文档向量创建索引,以便快速定位与查询向量相似的文档。
  • 查询处理:将查询语句转换为向量形式。
  • 结果检索:在索引中查找与查询向量相似的文档向量。
  • 分数计算:使用向量相似度指标计算每个文档的得分。

密集检索的优势在于能够理解同义词和上下文,从而确保相关文档不会被忽视。然而,它可能受到向量嵌入质量的影响,并且对于域外项可能不够敏感。

三、混合检索的实现

混合检索的关键在于将稀疏检索和密集检索的结果融合起来,以提供一组平衡且全面的结果。这通常通过以下步骤实现:

  1. 索引构建:同时为文档创建稀疏索引和密集索引。稀疏索引用于关键字匹配,而密集索引用于语义搜索。
  2. 查询处理:将查询语句同时转换为可用于稀疏检索和密集检索的形式。
  3. 结果检索:分别执行稀疏检索和密集检索,得到两组结果。
  4. 分数归一化:将稀疏检索和密集检索的结果分数归一化到相同的尺度上。
  5. 分数融合:使用参数alpha(α)加权,将稀疏检索和密集检索的结果分数结合起来。混合评分公式为:hybrid_score = (1−α)⋅sparse_score + α⋅dense_score。其中,α的取值通常介于0和1之间,用于决定各算法的权重。
  6. 结果重新排名:根据混合评分对结果进行排序,以提供最终的检索结果。

混合检索的优势在于能够同时考虑关键字相关性和语义上下文,从而提供一组更加准确和全面的结果。此外,它还具有更高的召回率和精确度,能够处理同义词和上下文,并对不同类型的查询更具鲁棒性。

四、混合检索在RAG中的应用

在RAG系统中,混合检索被用于匹配知识库中的相关信息,并将其融入Prompt中,以便大模型能够参考相应的知识给出合理回答。以下是混合检索在RAG中的具体应用:

  1. 知识库构建:将知识库中的文档进行向量化处理,并存储到向量数据库中。同时,为这些文档创建稀疏索引和密集索引。
  2. 用户提问:用户通过自然语言输入向RAG系统提出问题。
  3. 问题处理:将用户问题转换为可用于稀疏检索和密集检索的形式。
  4. 混合检索:在向量数据库中执行混合检索,找到与用户问题最相关的文档。
  5. Prompt生成:将找到的文档与用户问题结合,形成新的Prompt。
  6. 答案生成:将Prompt传递给大模型,大模型根据Prompt生成答案。
  7. 答案返回:将生成的答案返回给用户。

通过这种方式,RAG系统能够利用混合检索的优势,从知识库中准确地找到与用户问题相关的信息,并生成准确且丰富的答案。

五、结论

混合检索作为RAG技术中的关键组成部分,结合了基于关键字的稀疏检索和基于语义的密集检索,以充分利用这两种方法的优势。通过索引构建、查询处理、结果检索、分数归一化、分数融合和结果重新排名等步骤,混合检索能够提供一组平衡且全面的结果,具有更高的召回率和精确度。在RAG系统中,混合检索被用于匹配知识库中的相关信息,并将其融入Prompt中,以便大模型能够参考相应的知识给出合理回答。这种方法显著提升了信息查询和生成的品质,使得AI系统能够更准确地理解和回应用户的需求。

随着技术的不断发展,混合检索在RAG系统中的应用将越来越广泛。未来,我们可以期待看到更多基于混合检索的RAG系统在实际应用中取得更好的效果,为用户提供更加准确和丰富的信息。同时,也需要继续研究和改进混合检索算法,以提高其效率和准确性,进一步推动RAG技术的发展和应用。

标签:检索,RAG,Generation,查询,索引,文档,Retrieval,向量
From: https://blog.csdn.net/Chujun123528/article/details/143244058

相关文章

  • RAG技术
    RAG(Retrieval-AugmentedGeneration)技术是一种结合检索与生成能力的知识增强方案,专门用于应对复杂多变的信息查询和生成挑战。其核心在于结合先进的向量数据库与大模型的智能问答能力,使得AI系统能够更准确地理解和回应用户的需求。而混合检索作为RAG技术中的关键组成部分,结......
  • 搭建个人AI知识库:RAG与本地模型实践指南
    引言你是否想过拥有一个私人订制的AI助手,能够随时为你提供最个性化的信息?本文将带你一步步搭建一个基于本地模型和RAG技术的个人知识库。搭建本地模型环境os:archlinux内存:32gcpu:6核12线程python:3.12.7docker27.3.1+docker-compose向量库:milvus2.4.13+attu......
  • 论文翻译 | Bounding the Capabilities of Large Language Models in Open Text Gener
    摘要        开放式生成模型的局限性尚不清楚,但却越来越重要。是什么让他们成功,又是什么让他们失败?在本文中,我们采用了一种以提示为中心的方法来分析和限定开放式生成模型的能力。我们提出了两种具有挑战性的提示约束类型的通用分析方法:结构和风格。这些约束类型被归......
  • 在笔记本电脑上,实现本地知识库和大模型检索增强生成(RAG)
    现在,我们可以引入AnythingLLM,管理本地知识库,并和Ollama结合起来,实现大模型+知识库+RAG的智能问答。1.下载AnythingLLMAnythingLLM是采用MIT许可证的开源框架,支持快速在本地部署基于检索增强生成(RAG)的大模型应用。在不调用外部接口、不发送本地数据的情况下,确保用户数据......
  • 【AIGC】AI如何匹配RAG知识库:关键词搜索
    关键词搜索引言jieba库简介TF-IDF简介实践例子用jieba库提取关键词计算TF-IDF计算文档和查询相似度结果完整代码:总结引言RAG作为减少模型幻觉和让模型分析、回答私域相关知识最简单高效的方式,我们除了使用之外可以尝试了解其是如何实现的。在实现RAG的过程中,有语义......
  • 大模型RAG(检索增强生成)技术综述
    概念        从数据源中检索信息来辅助大语言模型(LargeLanguageModel,LLM)生成答案。简而言之,RAG结合了搜索技术和大语言模型的提示词功能,即向模型提出问题,并以搜索算法找到的信息作为背景上下文,这些查询和检索到的上下文信息都会被整合进发送给大语言模型的提示中......
  • 论文翻译 | Scalable Prompt Generation for Semi-supervised Learning with Language
    摘要         基于提示的学习方法在半监督学习(SSL)设置中已被文献证明在多个自然语言理解(NLU)数据集和任务上有效。然而,手动设计多个提示和表述词需要领域知识和人力投入,这使得在不同数据集上扩展变得困难且昂贵。在本文中,我们提出了两种方法来自动设计多个提示,并在......
  • 【RAG系列】基于代码仓库的RAG问答,为仓库构建知识图谱
    目录前言一、为什么要在代码仓库上构建知识图谱二、如何在代码仓库上构建知识图谱简单的知识图谱更高级的知识图谱总结Reference前言今天介绍的场景是基于代码仓库的RAG问答,RAG有效的关键在于能够根据用户查询检索到相关的文档,这中间涉及到索引构建和文档检索两......
  • 一文读懂RAG和LLM微调,教你结合业务场景落地LLM应用
    随着大家对大型语言模型(LLM)的兴趣激增,许多开发者也在构建基于LLM的应用。当直接使用Prompt驱动的LLM表现不如预期时,问题就出现了:如何提高LLM应用的可用性。这时我们需要权衡:是选择检索增强生成(Retrieval-AugmentedGeneration缩写RAG)还是模型微调来改善结果?01在深入探......
  • RAFT:一种适应特定领域RAG的大模型训练新方法!
    对大量文本数据的语料库进行大型语言模型(LLMs)的预训练已经成为一种标准范式。当将这些LLMs用于许多下游应用时,通常还会通过基于RAG的提示或微调,将新知识(例如,时效性新闻或私有领域知识)额外融入预训练模型中。然而,模型获取这些新知识的最优方法论仍然是一个开放的问题。在此背......