首页 > 其他分享 >大模型应用开发初探 : 快速直观感受RAG

大模型应用开发初探 : 快速直观感受RAG

时间:2024-09-23 08:54:30浏览次数:1  
标签:检索 RAG Text LLM 初探 var query 直观

大家好,我是Edison。

上一篇,我们了解了什么如何让一些开源小参数量模型具有函数调用的能力。这一篇,我们来快速了解下RAG(检索增强生成)并通过一个简单的DEMO来直观感受一下它的作用。

RAG是什么?

检索增强生成(Retrieval Augmented Generation),简称 RAG,它是根据用户输入的提示词,通过自有垂域数据库检索相关信息,然后合并成为一个新的“完备的“提示词,最后再给大模型生成较为准确的回答

例如,假设你正在构建问答聊天机器人,以帮助员工回答有关公司专有文档的问题。如果没有专门的培训,独立的 LLM 将无法准确回答有关这些文档的内容的问题,因为这些 LLM 都是基于互联网上公开的数据训练的。LLM 可能会因为缺乏信息而拒绝回答,或者更糟的是,它可能会生成不正确的响应。

为了解决这个问题,RAG 首先根据用户的查询从公司文档检索相关信息,然后将检索到的信息作为额外的上下文提供给 LLM。这样,LLM 就可以根据在相关文档中找到的特定详细信息生成更准确的响应。从本质上讲,RAG 使 LLM 能够“咨询”检索到的信息来表述其答案。

一般的RAG工作流程如下图所示,它实现了 非参数事实知识 和 逻辑推理能力 的解耦或分离,这些事实知识存储在外部知识库中独立管理和更新,确保LLM能够访问到就行。

综上所述,RAG其实类似于大学期末的开卷考试,反正知识点都在书里,你平时都没学过,得先找一找,找到了就把相关答案写在试卷上,考完了还是忘得一干二净,但是你的目标达到了:考试及格60分万岁!对于LLM来说,它完成了任务,给你了一个至少可以有60分的回答。下面总结下:

  • 检索(Retrieve):根据用户提示词从知识库中获取相关知识上下文。
  • 增强(Augment):将用户的原始提示词 和 获取到的知识 进行合并,形成一个新的提示词。
  • 生成(Generate):将增强后的新提示词发给LLM进行输出。

直观感受RAG

这里我们就不深究RAG的更多细节内容了,先来通过一个DEMO直观感受下RAG到底有什么作用。至于那些更多的细节内容,留到后续学习实践后,再总结分享。

这仍然是一个WindowsForm的DEMO应用,界面如下:

(1)在没有使用RAG时的查询

(2)使用RAG:导入内部知

(3)使用RAG:检索增强查询

可以看到,基于导入的内部知识,LLM能够基于RAG获得这些知识片段,然后结合用户的问题 和 知识片段 来生成较为准确的答案。

DEMO要点

(1)配置文件

DEMO中LLM使用的是Qwen2-7B-Instruct的模型,Embedding使用的是bge-m3模型,具体的配置如下:

{
  "OpenAI": {
    "API_PROVIDER": "SiliconCloud",
    "API_CHATTING_MODEL": "Qwen/Qwen2-7B-Instruct",
    "API_EMBEDDING_MODEL": "BAAI/bge-m3",
    "API_BASE_URL": "https://api.siliconflow.cn",
    "API_KEY": "**********************" // Update this value to yours
  },
  "TextChunker": {
    "LinesToken": 100,
    "ParagraphsToken": 1000
  }
}

(2)使用组件

使用到的组件包主要有两个:

  • Microsoft.SemanticKernel 1.19.0

  • Microsoft.SemanticKernel.Connectors.OpenAI 1.19.0

  • Microsoft.SemanticKernel.Connectors.Sqlite 1.19.0-alpha

可以看到这里使用的是一个本地数据Sqlilte来作为向量数据库存储,因为我们这个仅仅是个快速的DEMO,实际中可能会考虑选择更为适合的DB。需要注意的是,这里Sqlite这个包是个预览版,你在Nuget管理器中需要注意下勾选包含预览版才能搜索得到。

也正因为这个预览版,很多用法都有警告提示,所以最好在代码中加上下面这些将其禁用掉:

#pragma warning disable SKEXP0050
#pragma warning disable SKEXP0001
#pragma warning disable SKEXP0020
#pragma warning disable SKEXP0010
public partial class ChatForm : Form
{
    ......
}

(3)Embedding

private void btnEmbedding_Click(object sender, EventArgs e)
{
    var query = new QueryModel(tbxIndex.Text, tbxPrompt.Text);
    _textMemory = this.GetTextMemory().GetAwaiter().GetResult();
    var lines = TextChunker.SplitPlainTextLines(query.Text, _textChunkerLinesToken);
    var paragraphs = TextChunker.SplitPlainTextParagraphs(lines, _textChunkerParagraphsToken);

    foreach (var para in paragraphs)
    {
        Task.Run(() =>
        {
            ShowProcessMessage("AI is embedding your content now...");
            _textMemory.SaveInformationAsync(
                query.Index,
                id: Guid.NewGuid().ToString(),
                text: para)
            .GetAwaiter()
            .GetResult();
            ShowProcessMessage("Embedding success!");
            MessageBox.Show("Embedding success!", "Information", MessageBoxButtons.OK, MessageBoxIcon.Information);
        });
    }
}

private async Task<ISemanticTextMemory> GetTextMemory()
{
    var memoryBuilder = new MemoryBuilder();
    var embeddingApiClient = new HttpClient(new OpenAiHttpHandler(_embeddingApiConfiguration.Provider, _embeddingApiConfiguration.EndPoint));
    memoryBuilder.WithOpenAITextEmbeddingGeneration(
        _embeddingApiConfiguration.ModelId,
        _embeddingApiConfiguration.ApiKey,
        httpClient: embeddingApiClient);
    var memoryStore = await SqliteMemoryStore.ConnectAsync("memstore.db");
    memoryBuilder.WithMemoryStore(memoryStore);
    var textMemory = memoryBuilder.Build();

    return textMemory;
}

在Click事件中,调用GetTextMemory方法进行真正的Embedding操作,然后进行数据持久化到本地的Sqlite数据库。在GetTextMemory这个方法中,实现了调用Embedding模型API进行词嵌入。

数据写入Sqlite后打开表后的效果如下图所示。至于这个collection字段,是对应界面中的Index字段,这里我们暂时不用管它。

(4)Generation

private void btnGetRagResponse_Click(object sender, EventArgs e)
{
    if (_textMemory == null)
        _textMemory = this.GetTextMemory().GetAwaiter().GetResult();

    var query = new QueryModel(tbxIndex.Text, tbxPrompt.Text);
    var memoryResults = _textMemory.SearchAsync(query.Index, query.Text, limit: 3, minRelevanceScore: 0.3);

    Task.Run(() =>
    {
        var existingKnowledge = this.BuildPromptInformation(memoryResults).GetAwaiter().GetResult();
        var integratedPrompt = @"
                            获取到的相关信息:[{0}]。
                            根据获取到的信息回答问题:[{1}]。
                            如果没有获取到相关信息,请直接回答 Sorry不知道。
                        ";
        ShowProcessMessage("AI is handling your request now...");
        var response = _kernel.InvokePromptAsync(string.Format(integratedPrompt, existingKnowledge, query.Text))
            .GetAwaiter()
            .GetResult();
        UpdateResponseContent(response.ToString());
        ShowProcessMessage("AI Response:");
    });
}

private async Task<string> BuildPromptInformation(IAsyncEnumerable<MemoryQueryResult> memoryResults)
{
    var information = string.Empty;
    await foreach (MemoryQueryResult memoryResult in memoryResults)
    {
        information += memoryResult.Metadata.Text;
    }

    return information;
}

在Click事件中,将用户的原始提示词 和 从知识库中获取的知识片段 通过一个提示词模板 组成另一个增强版的 提示词,最后将这个新的提示词发给LLM进行处理回答。

小结

本文简单介绍了一下RAG(检索增强生成)的基本概念 和 工作流程,然后通过一个简单的DEMO快速直观感受了一下RAG的作用。后续,我们会持续关注RAG的更多细节内容 和 落地实践。

参考内容

mingupupu大佬的文章:https://www.cnblogs.com/mingupupu/p/18367726

示例源码

GitHub:https://github.com/Coder-EdisonZhou/EDT.Agent.Demos

推荐学习

Microsoft Learn, 《Semantic Kernel 学习之路》,点击查看原文按钮即可直达

 

作者:周旭龙

出处:https://edisonchou.cnblogs.com

本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文链接。

标签:检索,RAG,Text,LLM,初探,var,query,直观
From: https://www.cnblogs.com/edisonchou/p/-/quick-start-rag-application

相关文章

  • 代码实践!如何使用CAMEL Agents构建 GraphRAG ?
    关注公众号:青稞AI,第一时间学习最新AI技术......
  • 如何构建出更好的大模型RAG系统?(文末送书)
    ChatGPT爆火之后,以ChatPDF为首的产品组合掀起了知识库问答的热潮。在过去一整年中,大多数人都在完成RAG系统到高级RAG系统的迭代升级。但是技术发展是迅速的,如何深入了解RAG的发展,做出更好的RAG系统,其实还是非常困难的。大模型爆火后的RAG系统发展,大体可以将其分为3个阶段......
  • AIGC实战之如何构建出更好的大模型RAG系统
      大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为CSDN博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学......
  • K8S的StorageClass实战(NFS)
    本次实战的目标是快速创建NFS类型的StorageClass,并验证该StorageClass正常可用,全文由以下部分组成:创建StorageClass;通过helm下载tomcat的chart;修改chart,让tomcat使用刚才创建的StorageClass;在NFS服务端检查文件夹已正常写入;环境信息和准备工作以下是创建StorageCla......
  • 【人工智能时代】- 同济大学发布最新检索增强(RAG)的LLM生成技术综述
    摘要1引言1.1大型语言模型的进步1.2面临的挑战1.3解决方案:检索增强生成(RAG)1.4RAG的研究和发展1.5研究背景2背景2.1RAG的定义2.2RAGvs微调2.3RAG的优势3RAG框架3.1原始RAG(NaiveRAG)3.2高级RAG(AdvancedRAG)3.2.1预检......
  • 【推广】图书|2024新书《大模型RAG实战:RAG原理、应用与系统构建》汪鹏、谷清水、卞龙鹏
    探索RAG系统新高度:《大模型RAG实战:RAG原理、应用与系统构建》随着大模型技术的爆发,尤其是ChatGPT之后,以ChatPDF为首的知识库问答产品迅速走红,引发了RAG(检索增强生成)系统的广泛关注与讨论。对于开发者和AI从业者来说,如何深入理解RAG系统,掌握最新的技术迭代,是一个不小的挑战......
  • RAG能解决大模型的什么问题?不能解决什么问题?
    RAGOVERVIEWhttps://opendatascience.com/getting-started-with-multimodal-retrieval-augmented-generation/WhatisRAG?RAGisanarchitecturalframeworkforLLM-poweredapplicationswhichconsistsoftwomainsteps:Retrieval.Inthisstage,thesystemh......
  • WINDOWS安装RAGFLOW完整流程
    RAGFLOW是比较强大的知识库,支持搜索,聊天多种模式。知识库相比anyllm,fastgpt,dify,maxkb更强大,支持自定义分隔符,支持各种大模型提供商,如ollama等。官方体验地址,RAGFlow1:虚拟机安装:不建议通过wsl安装,wsl会遇到systecmctl不可用等诸多问题。以VMWarePro为例,参考下面链接完成安装......
  • GraphRAG 与 RAG 的比较分析
    检索增强生成(RAG)技术概述检索增强生成(Retrieval-AugmentedGeneration,简称RAG)是一种旨在提升大型语言模型(LargeLanguageModels,LLMs)性能的技术方法。其核心思想是通过整合外部可靠知识库的信息来增强模型的输出质量。RAG的工作原理可以概括如下:当LLM接收到查询时,它不仅依赖......
  • RAG+Agent人工智能平台:RAGflow实现GraphRAG知识库问答,打造极致多模态问答与AI编排流体
    RAG+Agent人工智能平台:RAGflow实现GraphRAG知识库问答,打造极致多模态问答与AI编排流体验1.RAGflow简介最近更新:2024-09-13增加知识库问答搜索模式。2024-09-09在Agent中加入医疗问诊模板。2024-08-22支持用RAG技术实现从自然语言到SQL语句的转换。2024-08-02......