首页 > 其他分享 >AI菜鸟向前飞 — LangChain系列之十二 - RAG(下篇):Index和Retriever

AI菜鸟向前飞 — LangChain系列之十二 - RAG(下篇):Index和Retriever

时间:2024-05-26 22:59:46浏览次数:33  
标签:Index 存储 added RAG 菜鸟 source num index line

AI菜鸟向前飞 — LangChain系列之十 - RAG(上篇)

AI菜鸟向前飞 — LangChain系列之十一 - RAG(中篇)

先分享个问题的解法

# 在使用Chroma实例化过程中,可能会出现如下报错
AttributeError: type object 'hnswlib.Index' has no attribute 'file_handle_count'

当使用代码遇到如上问题时,你可以这么去解决:

pip uninstall hnswlib
pip uninstall chroma-hnswlib
pip install chroma-hnswlib

原因:chroma-hnswlib的一个bug导致,回到正题。

    今天主要给大家介绍Indexing(索引),在正式介绍之前,先介绍个重要概念:持久化存储

向量化存储方式

在内存中

上一篇的例子,给大家演示的是非持久化存储

vector_store = Chroma(embedding_function=embeddings)

# 因存储在内存中造成每次启动程序时,都要add_documents存储,否则无法查询到
print("看看有值吗:\n", vector_store.get(where={"source": {"$eq": "test.txt"}}))

vector_store.add_documents(txt_docs)

print("再看看有值吗:\n", vector_store.get(where={"source": {"$eq": "test.txt"}}))

结果

看看有值吗:
 {'ids': [], 'embeddings': None, 'metadatas': [], 'documents': [], 'uris': None, 'data': None}
再看看有值吗:
 {'ids': ['5558fd95-9935-4070-861a-b9da7bfa8b92'], 'embeddings': None, 'metadatas': [{'source': 'test.txt'}], 'documents': ['南方将迎长达10天密集降雨热,\n苹果在中国1年收400亿苹果税,\n欢迎晚宴上他们都来了,\n湖北一村上百村民莫名有了营业执照, …………], 'uris': None, 'data': None}

持久化存储

vector_store_persist = Chroma(embedding_function=embeddings, persist_directory="./db")

# vector_store_persist.add_documents(txt_docs)

print("看看有值吗:\n", vector_store_persist.get(where={"source": {"$eq": "test.txt"}}))

结果

看看有值吗:
 {'ids': ['425c92f3-7d61-44a4-b208-964586cc0e55'], 'embeddings': None, 'metadatas': [{'source': 'test.txt'}], 'documents': ['南方将迎长达10天密集降雨热,\n苹果在中国1年收400亿苹果税,\n欢迎晚宴上他们都来了,\n湖北一村上百村民莫名有了营业执照, …………], 'uris': None, 'data': None}

看磁盘里有什么 ![[Pasted image 20240513133207.png]]

问题来了,如果每次繁琐的调用add_documents或者是add_texts的话,遇到同一份文档,岂不是要存多次?LangChain提供了一个特别好用的API,它提供了三种索引维护(清理)模式:)

Indexing:接收的文档参数为Document对象,若对Document对象不熟悉的朋友,可参考

AI菜鸟向前飞 — LangChain系列之十一 - RAG(中篇)

清理模式原文档被修改
向量存储是否删除
原文档被删除
向量存储是否删除
是否
支持并发
None(无)
Incremental(增量)
Full(全量)

    Document中metadata中有一个默认字段叫“source”,index也要用到它(source的含义是把文档块与原文档关联起来),用它与index的文档内容做关联。

为了更易于理解,让我们边看代码边“学习”吧

    首先,让我们准备好持久化存储的方式,你猜猜为什么必须用这种呢?为什么不用内存方式的存储?

准备工作

向量化数据库

from langchain.indexes import SQLRecordManager, index
vectorstore = Chroma(embedding_function=embeddings, persist_directory="./db")

# 这个是第一次见,它的作用是把持久化的数据库作为记录管理...
# 简单来说,index会需要往这里存数据,可以找到它
record_manager = SQLRecordManager(namespace="Chroma/langchain-index", db_url="sqlite://./db/chroma.sqlite3")

Document数据(注意source)

doc1 = Document(page_content="欢迎晚宴上他们都来了", metadata={"source": "dinner.txt"})
doc2 = Document(page_content="三组数据看实体经济发展质效提升", metadata={"source": "economy.txt"})
doc3 = Document(page_content="苹果在中国1年收400亿苹果税", metadata={"source": "apple.txt"})

索引函数的粗糙封装

def index_docs(doc: List[Document], record_manager=record_manager, vectorstore=vectorstore, cleanup=None, source_id_key="source", force_update=False):
    return index(doc, record_manager, vectorstore, cleanup=cleanup, source_id_key=source_id_key, force_update=force_update)

(试验)正式开始

None模式程序

# 清除向量存储,这行代码的含义,看完本章后,你就懂了
index([], record_manager, vectorstore, cleanup="full", source_id_key="source")

# line-one
index_docs(doc=[doc1, doc1, doc1 ……(此处省略一万个], cleanup=None)
# line-two
index_docs(doc=[doc1, doc2], cleanup=None)
# line-three
index_docs(doc=[doc1, doc2, doc3], cleanup=None)
# line-four
doc3.page_content = "Apple 发布 M4芯片的iPad Pro"
print("修改doc2之后,再次索引", 
      index_docs([doc1, doc2, doc3], cleanup=None,source_id_key="source"))


print("当前存储的数量", vectorstore._collection.count())
# line-five
index_docs(doc=[], cleanup=None)
# line-six
print("源文档被删除,再次索引后,当前存储的数量", vectorstore._collection.count())

输出结果

# line-one
{'num_added': 1, 'num_updated': 0, 'num_skipped': 0, 'num_deleted': 0}
# line-two
{'num_added': 1, 'num_updated': 0, 'num_skipped': 1, 'num_deleted': 0}
# line-three
{'num_added': 1, 'num_updated': 0, 'num_skipped': 2, 'num_deleted': 0}
# line-four
当前存储的数量 3
修改doc2之后,再次索引 {'num_added': 1, 'num_updated': 0, 'num_skipped': 2, 'num_deleted': 0}
当前存储的数量 4
# line-five
{'num_added': 0, 'num_updated': 0, 'num_skipped': 0, 'num_deleted': 0}
# line-six
源文档被删除,再次索引后,当前存储的数量 4

重点解析:

  • line-one:无论传入多少个一样的文档,都会索引入向量数据库一次(num_added)

  • line-two:若遇到相同的文件,会跳过(num_skipped);不同的,会添加(num_added)

  • line-four:文档内容(page_content)被修改后,再次索引时会继续添加已修改后的文档内容到向量数据库(num_added),原来的所有数据都不会改变,虽然是跳过(num_skipped)两个,但已经存储的不会被删除或修改,存储的数量变成了4个

  • line-six:若再次索引时,原文档被删除(传入为空),所有已存储的数据无变化

Incremental 增量模式

程序

# line-one
index_docs([doc1, doc2], cleanup="incremental")
# line-two
index_docs([doc1, doc2, doc3], cleanup="incremental", source_id_key="source")
# line-three
doc3.page_content = "Apple 发布 M4芯片13英寸平板电脑iPad Pro"
print("修改doc2之后,再次索引", index_docs([doc1, doc2, doc3], cleanup="incremental", source_id_key="source"))

# line-four
print("当前存储的数量", vectorstore._collection.count())
# line-five
index_docs([], cleanup="incremental", source_id_key="source")
# line-six
print("源文档被删除,再次索引后,当前存储的数量", vectorstore._collection.count())

输出结果

# line-one
{'num_added': 2, 'num_updated': 0, 'num_skipped': 0, 'num_deleted': 0}
# line-two
{'num_added': 1, 'num_updated': 2, 'num_skipped': 0, 'num_deleted': 0}
# line-three
修改doc2之后,再次索引 {'num_added': 1, 'num_updated': 0, 'num_skipped': 2, 'num_deleted': 1}
# line-four
当前存储的数量 3
# line-five
{'num_added': 0, 'num_updated': 0, 'num_skipped': 0, 'num_deleted': 0}
# line-six
源文档被删除,再次索引后,当前存储的数量 3

重点解析

  • line-two:若遇到相同的文件,会跳过(num_skipped);不同的,会添加(num_added)

  • line-three:文档内容(page_content)被修改后,再次索引时会删除已存储的原文档内容(num_deleted),添加已修改后的文档内容到向量数据库(num_added)

  • line-six:若再次索引时,原文档被删除(传入为空),所有已存储的数据无变化

Full全量模式

程序

# line-one
index_docs([doc1, doc2], cleanup="full", source_id_key="source")
# line-two
index_docs([doc1, doc2, doc3], cleanup="full", source_id_key="source")
# line-three
doc3.page_content = "Apple 发布 M4芯片11英寸平板电脑iPad Pro"
print("修改doc2之后,再次索引", index_docs([doc1, doc2, doc3], cleanup="full", source_id_key="source"))

# line-four
print("当前存储的数量", vectorstore._collection.count())
# line-five
index_docs([], cleanup="full", source_id_key="source")
# line-six
print("源文档被删除,再次索引后,当前存储的数量", vectorstore._collection.count())

输出结果

# line-one
{'num_added': 2, 'num_updated': 0, 'num_skipped': 0, 'num_deleted': 0}
# line-two
{'num_added': 1, 'num_updated': 0, 'num_skipped': 2, 'num_deleted': 0}
# line-three
修改doc2之后,再次索引 {'num_added': 1, 'num_updated': 0, 'num_skipped': 2, 'num_deleted': 1}
# line-four
当前存储的数量 3
# line-fix
{'num_added': 0, 'num_updated': 0, 'num_skipped': 0, 'num_deleted': 3}
# line-six
源文档被删除,再次索引后,当前存储的数量 0

重点解析

  • line-three:文档内容(page_content)被修改后,再次索引时会删除已存储的原文档内容(num_deleted),添加已修改后的文档内容到向量数据库(num_added)

  • line-six:若再次索引时,原文档被删除(传入为空),所有已存储的数据都将被删除(num_deleted)

这三种就介绍完了,但大家会发现有一个“num_updated“,从前到后都没有遇到过,是因为,要加一个参数 程序

index_docs(doc=[doc1, doc2])
index_docs(doc=[doc1, doc2, doc3], force_update=True)

输出结果

{'num_added': 2, 'num_updated': 0, 'num_skipped': 0, 'num_deleted': 0}
{'num_added': 1, 'num_updated': 2, 'num_skipped': 0, 'num_deleted': 0}

这次"num_updated"有值了吧 : )

具体要用哪种模式,根据场景选择不同的,另外还要注意的有:

当内容发生变化时,在索引期间将有一段时间新旧版本都可能返回给用户——这是因为在新内容写入时,旧版本还没被删除之前造成的

需要用好不同的模式:

  • Incremental模式:可以最大限度地减少这段时间,因为它能够在写入时连续进行清理

  • Full模式:在所有的都写入后进行清理

关于Retriever

最后让我们看下 对于RAG中一个特别重要的Retriever,先来讲常用参数:

Top K 前K个结果

程序

texts = [
    "南方将迎长达10天密集降雨热",
    "苹果在中国1年收400亿苹果税",
    "欢迎晚宴上他们都来了",
    "湖北一村上百村民莫名有了营业执照",
    "三组数据看全国实体经济发展质效提升",
    "南方即将迎来密集降雨热天气,长达10多天",
    "台湾地震把福州乌塔震歪?假的",
    "在中国1年苹果被收400亿苹果税",
    "上海外滩特警回应因为太帅走红",
    "北京",
    "我在上海东方明珠广场"
]
dbstore = Chroma.from_texts(texts=texts, embedding=DashScopeEmbeddings(model="text-embedding-v2"))
retriver = dbstore.as_retriever(search_kwargs={'k': 3})
res = retriver.invoke("请根据文中的信息内容只回答出关于城市地点的内容")
print(res)

输出结果

[Document(page_content='北京'),
 Document(page_content='南方将迎长达10天密集降雨热')
 Document(page_content='南方即将迎来密集降雨热天气,长达10多天')]

MMR 最大边界相似性

程序

retriver = dbstore.as_retriever(search_type="mmr", search_kwargs={'k': 3})
res = retriver.invoke("请根据文中的信息内容只回答出关于城市地点的内容")
print(res)

输出结果

[Document(page_content='北京'),
 Document(page_content='南方将迎长达10天密集降雨热')
 Document(page_content='台湾地震把福州乌塔震歪?假的')]

与Top K比较一下:),你就能看到MMR的妙处了

Similarity score threshold 相似度阈值

程序

retriver = dbstore.as_retriever(search_type="similarity_score_threshold", search_kwargs={"score_threshold": 0.7})
res = retriver.invoke("请根据文中的信息内容只回答出北京的内容")

输出结果

[Document(page_content='北京')]

总结

    对RAG的介绍暂时告一段落,涉及到一些高级的Retriever,等后面有空单独开个专题再给大家介绍,实在是太重磅、内容相当多,到时与agent一起介绍。

标签:Index,存储,added,RAG,菜鸟,source,num,index,line
From: https://blog.csdn.net/soukingang/article/details/139077916

相关文章

  • DragonKnightCTF 2024
    misc签到用stegsolve发现二维码,扫码关注中学生CTF发送DragonKnight2024即可获得flag神秘文字一开始想着埃及文,找了半天发现很多都没有对应的字符,都开始摆了。但是,当我发给gpt后,发现是js混淆类的直接运行就拿到了压缩包密码了,然后解压就是flagcrypto签到分析之后......
  • lua 元表__index 元方法应用1
    1--普通表2localtab={1,2,3}34--元表5localmeta={6insert=function(t,v)7--监测表增加成员8print("增加一个值",v)9table.insert(t,v)10end,11remove=function(t,i)12--监测表删除成......
  • [书生·浦语大模型实战营]——第三节:茴香豆:搭建你的 RAG 智能助理
    0.RAG概述定义:RAG(RetrievalAugmentedGeneration)技术,通过检索与用户输入相关的信息片段,并结合外部知识库来生成更准确、更丰富的回答。解决LLMs在处理知识密集型任务时可能遇到的挑战,如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成......
  • [LeetCode] 2903. Find Indices With Index and Value Difference I
    Youaregivena0-indexedintegerarraynumshavinglengthn,anintegerindexDifference,andanintegervalueDifference.Yourtaskistofindtwoindicesiandj,bothintherange[0,n-1],thatsatisfythefollowingconditions:abs(i-j)>=index......
  • 使用RAG-GPT和Ollama搭建智能客服
    引言前面介绍了使用RAG-GPT和OpenAI快速搭建LangChain官网智能客服。有些场景,用户可能无法通过往外网访问OpenAI等云端LLM服务,或者由于数据隐私等安全问题,需要本地部署大模型。本文将介绍通过RAG-GPT和Ollama搭建智能客服。RAG技术原理介绍在介绍RAG-GPT项目之前,我们首先要......
  • Tensors of the same index must be on the same device and the same dtype except `
    避免使用 torch.set_default_dtype(torch.float64) 可以尝试采用model.Double或者model.to(torch.Double)m=torch().to(device).to(torch.float64)     参考:Tensorsofthesameindexmustbeonthesamedeviceandthesamedtypeexcept`step`t......
  • CMU 15-445 Lecture #05: Storage Models & Compression笔记总结(上)
    这是cmu15-445第五节课程StorageModels&Compression的上半部分,主要包括StorageModels的内容,压缩部分下次再整理,学完这部分可以去做hw2的第一部分课程主页:CMU15-445/645::IntrotoDatabaseSystems(Fall2023)(有几张图片目前没上传,过两天补一下)DatabaseWorkloads......
  • 利用英特尔 Gaudi 2 和至强 CPU 构建经济高效的企业级 RAG 应用
    检索增强生成(RetrievalAugmentedGeneration,RAG)可将存储在外部数据库中的新鲜领域知识纳入大语言模型以增强其文本生成能力。其提供了一种将公司数据与训练期间语言模型学到的知识分开的方式,有助于我们在性能、准确性及安全隐私之间进行有效折衷。通过本文,你将了解到英特尔......
  • 来自工业界的知识库 RAG 服务(二),RagFlow 源码全流程深度解析
    背景介绍前面介绍过有道QAnything源码解析,通过深入了解工业界的知识库RAG服务,得到了不少调优RAG服务的新想法。因此本次趁热打铁,额外花费一点时间,深入研究了另一个火热的开源RAG服务RagFlow的完整实现流程,希望同样有所收获。项目概述框架设计首先依旧可以先......
  • SwiftUI中的手势(DragGesture拖拽手势及Drag动画组件)
    上一篇文章我们了解了如何使用.gesture修饰符和@GestureState属性包装器,让我们看看另一种常见的手势:DragGesture拖拽手势。下面先看个效果图:这个效果中,我们实现了一个Text文本,并添加了拖拽手势,可以拖动到屏幕的任意位置,松手后停留在目标位置,而非回到原来的起点位置。UI......