申明:九析唯一授权【超级网红系列课程——AI 大模全栈型架构师】系列课程
邀约
诚挚邀请您关注公众号,通过公众号加入群聊和我们一起完爆世界,有任何问题在群里我们一起探讨......期待与您的见面!
一、RAG简介
众所周知,我们在使用大语言模型做应用开发的过程中,享受大模型带给我们智能化体验的同时,也遭遇了一些,大语言模型自身的局限与不足,主要包括以下三点:
- 幻觉:大语言模型文本生成底层基于概览,有时会胡说八道
- 数据新鲜度:大语言模型因训练成本高,数据新鲜度有限,过了这个时限后的事情就不知道了
- 数据安全:企业把数据、文件等上传大模型会造成信息泄露
还有推理速度慢,推理结果不稳定,推理结果可解释性差等等,这里就不一而足了
以上的问题影响了大模型的推广和应用,很长一段时间以来,以ChatGPT为首的大模型只在某些容错率高的场景使用,比如:音乐、绘画、个人提效上有一席之地,却难以应用在政府机构和企事业单位,等实际业务经营场景中。直至RAG等相关技术的成熟与发展,大模型应用叫好不叫座的现状才逐步得以改善
二、RAG来源
RAG 是Retriever Augmented Generation ‘检索增强生成’一词的缩写,检索到结果后也不是将结果原封不动的返回,而是经过再次加工处理后才将结果返回给用户。
RAG最早是在2020年出现在Facebook AI Research(即:FAIR团队),发表了一篇名为《Retriever Augmented Generation for Knowledgeable-Intensive NLP tasks》的论文当中。
三、模型架构介绍
RAG的核心是由检索器(Retriever)和生成器(Generator)组成,作者将两个模型连接在一起,并进行了全链路的微调(Fine-tuning),其中检索器模型又由查询编码器(Query Encoder)和文档索引(Document Index)两部分构成,查询编码器负责将用户输入的自然语言查询语句,转换成机器可以理解的机器语言,再通过 MIPS(最大内积搜索算法),从文档索引器中检索出预先定义的最多‘K’个文档(即:Top-K),然后传给文本生成器(即:Sequence to Sequen 字符序列)模型,再有 Sequence to Sequen 产生结果,然后返回给先前查询的用户。
整个过程非常像传统的搜索,但又跟传统的搜索有很大的不同,传统搜索是基于关键词和倒排索引。
而这里能是采用向量,采用向量的好处是支持语义检索。
比如:我喜欢你,我爱你,我中意你。
四、Sequence to Sequen介绍
Seq2Seq(Sequence to Sequence,序列到序列模型) 是一种循环神经网络的变种,包括编码器 (Encoder) 和解码器 (Decoder) 两部分。Seq2Seq 是自然语言处理中的一种重要模型,可以用于机器翻译、对话系统、自动文摘。
Seq2Seq被提出于2014年,最早由两篇文章独立地阐述了它主要思想,分别是Google Brain团队的《Sequence to Sequence Learning with Neural Networks》和Yoshua Bengio团队的《Learning Phrase Representation using RNN Encoder-Decoder for Statistical Machine Translation》。这两篇文章针对机器翻译的问题不谋而合地提出了相似的解决思路,Seq2Seq由此产生。
五、RAG定义
RAG: 全称“Retrieval Augmented Generation」检象增强生成。结合了信息检索技术和LLM 。自研 RAG系统先从私有或特定领域的文档库中检索到用户查询的上下文信息,LLM 再根据检索到的上下文信息生成最终答案。RAG可以提高文本生成的质量和准确性。这里需注意,RAG 不仅仅是搜索到警,不管 RAG多历害,还是基于 LLM,脱离了LLM,就会变得没有“人味儿”。
感谢各位老爷的观看!!!
可以直接观看视频:九析带你轻松完爆AI大模型 别忘了一键三连,您的支持是九析更新的最大动力。
标签:完爆,RAG,检索,九析,Sequence,模型,Seq2Seq,LLM From: https://blog.csdn.net/yangpiqiulaotou/article/details/143780356