首页 > 其他分享 >RAG 案框架(Qanything、RAGFlow、FastGPT、智谱RAG)对比

RAG 案框架(Qanything、RAGFlow、FastGPT、智谱RAG)对比

时间:2024-07-04 08:59:22浏览次数:20  
标签:检索 RAG FastGPT 模型 语义 RAGFlow 文档 query 向量

各家的技术方案

有道的QAnything

亮点在:rerank

在这里插入图片描述

RAGFLow

亮点在:数据处理+index

在这里插入图片描述

智谱AI

亮点在文档解析、切片、query改写及recall模型的微调

在这里插入图片描述

FastGPT

优点:灵活性更高

在这里插入图片描述

下面分别按照模块比较各框架的却别

功能模块QAnythingRAGFLowFastGPT智谱AI
知识处理模块pdf文件解析是抑郁PyMUPDF实现的,目前效率最高的,解析文档的文字采用的是PyMuPDF的get_text.不区分文字文档,还是图像文档(图像文档的若没有文字会报错)OCR, Document Layout Analyze 等,这些在常规的 RAG 中可能会作为一个不起眼的 Unstructured Loader 包含进去,可以猜到 RagFlow 的一个核心能力在于文件的解析环节
召回模块向量库采用milvus的混合检索(BM25+向量检索),不设置阈值,返回topk(100)向量数据库使用的是 ElasticSearch。混合检索,实现的是文本检索 + 向量检索, 没有指定具体的向量模型,但是使用huqie作为文本检索的分词器语义检索 语义检索模式通过先进的向量模型技术,将知识库中的数据集转换成高维向量空间中的点。在这个空间中,每个文档或数据项都被表示为一个向量,这些向量能够捕捉到数据的语义信息。当用户提出查询时,系统同样将问题转化为向量,并在向量空间中与知识库中的向量进行相似度计算,以找到最相关的结果。优势:能够理解并捕捉查询的深层含义,提供更加精准的搜索结果。 应用场景:适用于需要深度语义理解和复杂查询处理的情况,如学术研究、技术问题解答等。 技术实现:利用如text-embedding-ada-002等模型,对文本数据进行embedding,实现高效的语义匹配。全文检索 全文检索模式侧重于对文档的全文内容进行索引,允许用户通过输入关键词来检索文档。这种模式通过分析文档中的每个词项,并建立一个包含所有文档的索引数据库,使用户可以通过任何一个词或短语快速找到相关的文档。优势:检索速度快,能够对大量文档进行广泛的搜索,方便用户快速定位到包含特定词汇的文档。 应用场景:适用于需要对文档库进行全面搜索的场景,如新闻报道、在线图书馆等。 技术实现:采用倒排索引技术,通过关键词快速定位到文档,同时结合诸如TF-IDF等算法优化搜索结果的相关性。混合检索 混合检索模式结合了语义检索的深度理解和全文检索的快速响应,旨在提供既精准又全面的搜索体验。在这种模式下,系统不仅会进行关键词匹配,还会结合语义相似度计算,以确保搜索结果的相关性和准确性。优势:兼顾了全文检索的速度和语义检索的深度,提供了一个平衡的搜索解决方案,提高了用户满意度。 应用场景:适合于需要综合考虑检索速度和结果质量的场景,如在线客服、内容推荐系统等。 技术实现:通过结合倒排索引和向量空间模型,实现对用户查询的全面理解和快速响应。例如,可以先通过全文检索快速筛选出候选集,再通过语义检索从候选集中找出最相关的结果。 向量模型采用:BGE-M3 通过向量检索、文本检索召回数据,并采用RFF算法排序;采用文章结构切片以及 small to big 的索引策略可以很好地解决。针对后者,则需要对 Embedding 模型进行微调。我们有四种不同的构造数据的方案,在实践中都有不错的表现: Query vs Original:简单高效,数据结构是直接使用用户 query 召回知识库片段;Query vs Query:便于维护,即使用用户的 query 召回 query,冷启动的时候可以利用模型自动化从对应的知识片段中抽取 query;Query vs Summary:使用 query 召回知识片段的摘要,构建摘要和知识片段之间的映射关系;F-Answer vs Original:根据用户 query 生成 fake answer 去召回知识片段。微调 Embedding 模型
重排模块精准排序采用自己的rerank模型,但是阈值设置在0.35重排是基于文本匹配得分 + 向量匹配得分混合进行排序,默认文本匹配的权重为 0.3, 向量匹配的权重为 0.7支持重排,动态设置 合并 embedding 和 fulltext 的结果,并根据 id 去重; 对qa字符串拼接,并删除空格、标点符号,对字符串进行hash编码并去重; 如果配置了 rerank 模型,那调用模型进行重排序,并在 score 中新增 rerank 的得分;没有则不会增加 rerank的得分;
大模型的处理所有数据组织在一起的prompt(做了最大token的优化处理)大模型可用的 token 数量进行过滤模型微调上,采用分阶段微调,即首先用开源通用问答数据进行微调,然后用垂域问答数据微调,最后用人工标注的高质量问答数据进行微调。
web服务使用sanic实现web服务Web 服务是基于 Flask
切词处理自定义的ChineseTextSplitter完成huqie
文件存储文件存储使用的是 MinIO
亮点与常规的RAG比较,在rerank环节做了精细化调整解析过程写的也很复杂,无怪乎处理速度有点慢。不过预期处理效果相对其他 RAG 项目也会好一些。从实际前端的展示的 Demo 来看,RAGFlow 可以将解析后的文本块与原始文档中的原始位置关联起来,这个效果还是比较惊艳的,目前看起来只有 RagFlow 实现了类似的效果。FastGPT 提供了三种检索模式,覆盖了 RAG 中的主流实现。 对重复的数据去重并使用最高得分;计算 rrfScore 并以其为依据排序;

总结:

1、Qanything rerank模块设计的最好

2、RAGFlow 文档处理最好

3、FastGPT 模块动态配置多

4、智谱RAG,在领域数据上微调训练最好

全维度。没有最好,在自己业务的数据上,能落地就是最好的~。

标签:检索,RAG,FastGPT,模型,语义,RAGFlow,文档,query,向量
From: https://blog.csdn.net/stephen147/article/details/140165033

相关文章

  • WPF AllowsTransparency DragMove
     //xaml<Windowx:Class="WpfApp191.MainWindow"xmlns="http://schemas.microsoft.com/winfx/2006/xaml/presentation"xmlns:x="http://schemas.microsoft.com/winfx/2006/xaml"xmlns:d="http://schemas......
  • Activity和Fragment有什么区别
     Activity和Fragment是Android应用开发中两个非常重要的组件,它们都有各自的生命周期方法,包括onCreate。然而,它们有一些关键的区别:Activity独立性:Activity是一个独立的、可直接启动的组件。它通常代表应用的一个单一屏幕(界面)。生命周期:Activity有自己的完整生命周期......
  • 深度学习与NLP | 全面回顾最先进:AI大模型+RAG的综述!
    本文来源公众号“深度学习与NLP”,仅用于学术分享,侵权删,干货满满。原文链接:全面回顾最先进:AI大模型+RAG的综述!1 介绍本文全面回顾了当前最先进的RAG技术,包括朴素RAG、进阶RAG和模块RAG等范式,并置于LLM背景下。文章讨论了RAG过程中的核心技术,如“检索”、“生成”和“增强”......
  • LLM大模型: RAG的最优chunk方法 — 利用本地离线LLM的embedding实现Semantic Chunking
     1、RAG整个流程的核心节点如下:第一个重要的节点就是chunk。chunk最核心的目的就是把相同语义的token聚集在一起,不同语义的token互相分开,利于后续的retrieve和rerank。举个例子:今天天气很好,我和小明在一起打篮球。隔壁老王在家里看电视。小明的妈妈在家里做晚饭,晚上我......
  • 文献阅读-Distributed Constrained Combinatorial Optimization leveraging Hypergra
    DistributedConstrainedCombinatorialOptimizationleveragingHypergraphNeuralNetworks  AbstractScalableaddressingofhighdimensionalconstrainedcombinatorialoptimizationproblemsisachallengethatarisesinseveralscienceandengineering......
  • 检索增强生成RAG系列5--RAG提升之路由(routing)
    在系列3和系列4我讲了关于一个基本流程下,RAG的提高准确率的关键点,那么接下来,我们再次讲解2个方面,这2个方面可能与RAG的准确率有关系,但是更多的它们是有其它用途。本期先来讲解RAG路由。目录1基本思想2Logicalrouting2.1基本思想2.2代码演示3Semanticrouting3.1......
  • Java开发者LLM实战——使用LangChain4j构建本地RAG系统
    1、引言由于目前比较火的chatGPT是预训练模型,而训练一个大模型是需要较长时间(参数越多学习时间越长,保守估计一般是几个月,不差钱的可以多用点GPU缩短这个时间),这就导致了它所学习的知识不会是最新的,最新的chatGPT-4o只能基于2023年6月之前的数据进行回答,距离目前已经快一年的时间,如......
  • ​RAG与LLM原理及实践(7)--- Chroma query应用层策略及实现原理
    背景Chromaquery底层查询的 query思想是相同的,甚至在vectordb的世界中,都大同小异。如果你有看前面写的  RAG与LLM原理及实践(5)---Chromaquery源码分析应该比较清楚query的运作原理,说直白就是在memory或是disk中通过暴力查询比较与HNSW算法(NSW算法的变种,分层可导航......
  • RAG与LLM原理及实践(6)--- Chroma collection及存储逻辑分析
     背景在chromavectordb的世界中,除了对query的理解,另外就是需要深入理解chroma的运行模式,chroma运行时,提供了 local模式,server-client模式,这些在应用中固然重要,但从实现原理上说,其实就是通过http服务,在固定端口如11344上请求数据。但是在这之前,需要深入了解并理解coll......
  • RAG与LLM原理及实践(4)--- 语义相似度距离衡量的三种方式chroma示例
    语义相似度的计算是一个比较复杂的过程。今天打算先比较详细的介绍下几个相似度的距离衡量算法。相似度的排名衡量,在向量数据库vectordb的query中,被大量使用。还是直接上干货,理解下背后的逻辑和概念比较重要,后面看看源码 chromavectordb是怎么处理这个过程的。1)co......