首页 > 其他分享 >Google出品的NotebookLM 人工智能笔记本,一款基于RAG的personalized AI产品

Google出品的NotebookLM 人工智能笔记本,一款基于RAG的personalized AI产品

时间:2024-05-20 12:08:34浏览次数:26  
标签:RAG Google 模型 用户 查询 NotebookLM 文档 召回

Google推出了实验性的NotebookLM产品,一款基于RAG的个性化AI助手产品,基于用户提供的可信信息,通过RAG,帮助用户洞察和学习参考内容,然后借助AI整理笔记,转换为用户最终需要的大纲、博客、商业计划书等最终目的。

在之前的博客中,当时提到:"AI搜索产品的边界绝不止步于搜索,往上往下,往上如何更懂用户真实诉求,往下通过Agents组合解决复杂的问题,给用户提供端到端的个性化解决方案"。google的这款NotebookLM 也比较契合这样的思路,基于用户提供的信息,结合搜索技术,提供个性化的笔记AI助手,但整体比较克制,重点强调可信,也就是遵循用户提供的信息,并未结合google的强项通用搜索。

下面步入正题,我们来介绍NotebookLM的功能,并做一个尝试。

官方介绍

NoteboolLM

官方介绍是,NotebookLM 是一个基于用户信任信息(也就是用户自己提供的文档)的个性化(私人的)人工智能助手。

目前,NotebookLM 仅在US提供服务,体验需要魔法

功能特点

  • 虚拟研究助手: 用户可以上传与项目相关的文档,NotebookLM 会立即成为这些信息的专家。说人话就是,NotebookLM会解析文档,拆分为chunk,这就理解了文档内容。

虚拟研究助手

  • 帮助用户洞察信息 (Go from information to insight) NotebookLM 提供了一个强大的新界面,使用户能够轻松地从阅读到提问再到写作,AI 助手会在每一步提供帮助。 上传文档后,用户可以在提问框进行提问,NotebookLM通过RAG能力进行回答,并能查看参考文档内容。

帮助用户洞察信息

如果机器回复的内容获得用户的认可,用户可以将回复内容保存到notes,所以设想下协作模式,就是用户先上传要学习的参考文档,然后就自己关注的点(其实就是整理大纲)进行提问,最后将这些回复内容都保存到笔记。

保存到notes

当你所有关心的问题都提问后,你就获得了许多有用有价值的notes片段。基于这些片段,就可以:

  • 快速起草内容,选中整理的笔记(就是上面保存的),NotebookLM 可以帮助用户快速转化为大纲、博客文章、商业计划等。

快速起草内容

隐私说明

google强调用户的个人数据不会被用于训练 NotebookLM,因此任何私人或敏感信息都将保持私密,除非用户选择与合作者共享资源。

行业评价

  • Tiago Forte(《Building A Second Brain》一书的作者)评价 NotebookLM 为“为创意工作利用 AI 而创建的最佳软件”。

NotebookLM 体验

看完了官方介绍,我们来实战上手。

新建笔记本

首先新建一个笔记本,修改名称为"人工智能与搜索引擎"

新建笔记本

上传参考文档

这里我们上传王树森的《搜索引擎技术》pdf作为参考文档。

可以直接上传PDF,文本文件,也可以从google云盘选择,或者直接复制文本。

上传文档

洞察理解文档

现在开始提问,我们要了解搜索引擎与人工智能,我们开始提问:

Q: 搜索引擎的原理是什么

搜索引擎的原理

可以看到,NotebookLM比较好的回复了搜索引擎链路,包含三级漏斗等信息。

点击引用可以查看原文。

引用查看原文

现在我们了解了基本的链路,那么我们接着看每一块有什么样的技术。

Q: 搜索引擎中Query Processing具体处理方法

搜索引擎中Query Processing具体处理方法

回复不稳定,用英文就行了回复,不过内容还是靠谱的。

接着,我们来问召回的技术方案。

Q: 搜索引擎的召回 (Retrieval)部分,通常用有哪些召回方案,用到哪些人工智能技术,请用中文回答

这里试下,加上用中文回答的指令。

搜索引擎的召回 (Retrieval)部分

回答比较好,提出了三种召回方案,以及用到的技术,我们保存起来,继续提问。

Q: 详细介绍下搜索引擎排序的三级漏斗,采用的模型方案,用中文回复

搜索排序

三级漏斗介绍了,但是模型方案回答一般般,先保存起来,

快速起草内容

提问演示告一段落,我们开始将上述提问后保存的notes整理。注意这里的notes可以自己添加,随时记录自己的想法。

通过上面的提问,我们保存了4个notes,我们选中:

选中笔记

可以看到,系统给出了总结创建大纲合并到笔记等功能,我们试下创建学习指南

学习指南

系统生成了一个学习指南,可以看到包含QP、召回、排序等。

我们试下其他的,还是选中这四个:

Q: 基于这些内容创建一篇博客,用markdown输出,用中文回复

下面看成品


## 搜索引擎的工作原理

用户在搜索框中输入查询词,搜索引擎返回若干文档,并按照顺序呈现给用户。从用户点击搜索按钮,到看到最终搜索结果,中间耗时约数百毫秒。在这期间,搜索引擎做了大量的计算,我们将这一系列计算步骤称为“搜索引擎链路”。搜索引擎链路通常采用三级漏斗的结构,分别是召回海选、粗排和精排。

**搜索引擎链路主要包含三个核心步骤:**

1. **查询词处理(Query Processing)**
    
    - **分词:**将查询词切分成多个词,例如将“冬季卫衣推荐”切分成“冬季”、“卫衣”、“推荐”。深度学习模型,例如BERT,在分词任务上取得了很好的效果。
    - **词权重:**计算查询词中每个词的重要性,用于文本召回中的丢词策略。词权重可以通过人工标注或机器学习模型来确定。
    - **查询词改写:**生成与原始查询词语义相同的其他表达方式,例如将“副作用”改写为“不良反应”。查询词改写可以基于规则、同义词表、上下位词表,也可以使用深度学习模型来生成。
    - **意图识别:**判断用户查询的意图,例如用户是想查找附近的餐厅,还是想了解某个新闻事件。这包括时间敏感性,检查用户是否偏好新内容(例如“最新消息”),以及区域意图,考虑用户的位置和文档的地理相关性(例如“我附近的餐厅”)。
2. **召回(Retrieval)**
    
    - **文本召回:** 这是最基本也是最重要的召回通道。文本召回主要利用倒排索引,这种数据结构记录了“词→包含该词的文档列表”。给定查询词,系统先对其进行分词,然后利用倒排索引找到包含这些词的文档。为了提高召回率,会进行同义词扩展,例如将“冬季”扩展为“冬天”。此外,文本召回还需要考虑词之间的距离,以及词权重,以排除不相关的文档。
    - **向量召回:** 这是近年来兴起的一种重要召回方案,它克服了文本召回的局限性,可以召回语义相关但文本不匹配的文档。向量召回的核心是将查询词和文档分别表示为向量,然后计算向量之间的相似度。系统预先计算好所有文档的向量表示,并利用近似最近邻(ANN)索引技术来加速检索过程。向量召回又可以分为相关性召回和个性化召回,两者区别在于训练模型的目标不同,前者拟合相关性分数,后者拟合用户点击行为。
    - **离线召回:** 这种方案利用空闲的计算资源,离线挖掘出高质量的“查询词→文档列表”索引,用于线上召回。离线召回的方法有很多,例如:挖掘曝光日志,利用线上搜索结果页中排名靠前、点击率高的文档来构建索引;离线执行搜索链路,对大量查询词进行召回和排序,将排序结果存储为索引;使用NLP模型,例如doc2query,离线寻找与文档高度相关的查询词,构建索引。
3. **排序 (Ranking)**
    
    - **召回海选:** 从数亿的文档库中快速取回数万篇文档,使用简单的模型和规则给文档打分,选择分数最高的数千篇文档进入下一级排序。为了控制计算量,召回海选的相关性模型通常采用双塔模型,将查询词和文档分别映射到向量空间,计算向量相似度。点击率模型也采用双塔结构,使用户特征、查询词特征和文档特征,预估用户点击的可能性。召回海选可以使用规则或简单的线性模型融合相关性分数和其他特征,也可以不使用融合模型。
    - **粗排:** 从召回海选得到的数千篇文档中选出数百篇文档,作为精排的候选集。粗排使用规模稍大的模型,比召回海选更准确地评估文档与查询词的相关性,并预估用户点击的可能性。粗排阶段可以使用深度神经网络(DNN)或BERT模型来计算相关性分数,并使用DNN模型预估点击率。融合模型通常使用GBDT模型,将相关性、点击率以及其他特征进行融合,得到最终分数。
    - **精排:** 精排使用深度神经网络,对数百篇文档打分,按照融合分数排序,最终展示在搜索结果页上。精排使用的模型规模最大,可以使用BERT模型计算相关性,使用DNN模型预估点击率。融合模型通常使用GBDT模型,融合相关性、点击率、内容质量、时效性、地域性、个性化等多个分数,最终决定文档的排序。

**人工智能技术在搜索引擎召回方案中的应用:**

- **分词:** 将查询词切分成多个词,例如将“冬季卫衣推荐”切分成“冬季”、“卫衣”、“推荐”。深度学习模型,例如BERT,在分词任务上取得了很好的效果。
- **词权重:** 计算查询词中每个词的重要性,用于文本召回中的丢词策略。词权重可以通过人工标注或机器学习模型来确定。
- **查询词改写:** 生成与原始查询词语义相同的其他表达方式,例如将“副作用”改写为“不良反应”。查询词改写可以基于规则、同义词表、上下位词表,也可以使用深度学习模型来生成。
- **语义匹配模型:** 用于向量召回,将查询词和文档嵌入到向量空间,并计算向量相似度。常用的模型包括双塔模型、BERT等。
- **近似最近邻(ANN)搜索:** 用于向量召回,在大规模文档库中快速找到与查询词向量表示最相似的文档。

多种召回方案和人工智能技术的结合使用,可以提高搜索引擎的召回率,将更多相关的文档呈现在用户面前。

需要注意的是,提供的资料中没有详细介绍三级漏斗中每个阶段具体的模型方案,例如使用的BERT模型结构、DNN模型的层数和激活函数、GBDT模型的树的数量和深度等信息。如果需要了解这些细节,可能需要参考其他资料。成品:

NotebookLM 评价

优点:

  • 良好的产品设计方案,可以碎片化的记录零星的思考,通过RAG为零星的思考整理提炼内容,最后将零星的思考内容汇总输出内容,帮助用户实现端到端的应用

可优化的方向:

  • 通过查看chunk,还是按照文本长度做的分片,未做语义结构化分片
  • 支持网页、笔记导入
  • 增加网页检索开关,可以制定检索范围、比如维基百科
  • 语言保持
  • 生成的内容尚不支持修改
  • 引入更多的多模能力,输入端支持多模输入,输出支持个性化的多模输出

总结

NotebookLM 给了我们一个很好的LLM时代的personalized AI 产品范例,一个很好的RAG落地产品。很多时候,能力还是哪个能力,通过交互的创新,就能打造出"The best software ever created for leveraging AI in your creative work"。

标签:RAG,Google,模型,用户,查询,NotebookLM,文档,召回
From: https://www.cnblogs.com/xiaoqi/p/18201615/NotebookLM

相关文章

  • 和谷歌Google I/O杠上了,ChatGPT将具备通话功能
    在当今社会,人工智能技术的发展已经取得了巨大的成就,尤其是在语言领域。ChatGPT作为一种新型的自然语言处理模型,被广泛应用于各种领域,比如问答系统、智能对话系统等,其在对话生成方面的表现也十分出色。而随着技术的不断发展,有人开始猜测ChatGPT是否将来具备通话功能,这给人们带来了......
  • 大模型_3.2 RAG 高效应用指南
    一、概述 构建一个RAG应用的概念验证过程相对简单,但要将其推广到生产环境中则会面临多方面的挑战。这主要是因为RAG系统涉及多个不同的组件,每个组件都需要精心设计和优化,以确保整体性能达到令人满意的水平。在这一过程中,外部非结构化数据的清洗和处理、文本分块、Query的......
  • 大模型_3.1:构建企业RAG系统
    下面的RAG系统架构图提供了每个组件的使用位置和方式的上下文,接下来我们将逐步讲解每个组件的设计需求和作用,以及构建这些组件的最佳实践。源文地址:https://www.rungalileo.io/blog/mastering-rag-how-to-architect-an-enterprise-rag-system#generator 1、用户认证【User......
  • puppeteer localstorage 处理简单说明
    puppeteer对于cookie以及localstorage的控制实际上还是比较常见的需求,现在主流web开发都比较喜欢使用localstorage进行一些数据的额存储,以下是关于localstorage处理的一个简单演示环境准备基于了browserless(使用了v2版本,注意browserlessv1与v2是有差异的,目前测试chrome......
  • PaliGemma 正式发布 — Google 最新发布的前沿开放视觉语言模型
    PaliGemma是Google推出的新一代视觉语言模型家族,能够接收图像与文本输入并生成文本输出。Google团队已推出三种类型的模型:预训练(PT)模型、混合模型和微调(FT)模型,这些模型分辨率各异,提供多种精度以便使用。所有模型均在HuggingFaceHub的模型库中发布,配备了模型说明和许可证......
  • HTML5中 drag 和 drop api
    被拖放元素--A,目标元素--B。dragstart事件主体是A,在开始拖放A时触发。dragend事件主体是A,在整个拖放操作结束时触发。drag事件主体是A,正在拖放A时触发(整个拖拽,drag事件会在被拖拉的节点上持续触发,相隔几百毫秒)。dragenter事件主体是B,在A进入某元素的时候触发。drago......
  • RAG Project with Ollama and LangChain via Gradio Interface
    RAGProjectwithOllamaandLangChainviaGradioInterfacehttps://github.com/fanqingsong/rag-ollama-langchainThisrepositoryhoststheimplementationofaRetrieval-AugmentedGeneration(RAG)projectleveragingthecapabilitiesofOllamatorunopen-so......
  • 在langchain中的rag学习使用之旅-从半知半解到实现效果
    rag我简单理解来看就是我先有一段文本,先把它转成向量,保存到向量数据库中,下次我调用llm时将向量数据库中查询的结果给llm作参考并回答。对rag了解不多,所以开启学习之旅,学完了要应用到实际的需求中,因为最近手里有一个订单就是需要用到这个技术,但是又一知半解。现在新知识太多了,学......
  • 2024年I/O开发者大会,Google宣布全面进入Gemini时代
    5月15日,在2024年I/O开发者大会上谷歌宣布全面进入Gemini时代。大会中,谷歌CEO桑达尔·皮查伊(SundarPidal)发布数十款Google和 AI 结合产品,堪称“全家桶”级别,全力对战OpenAI。立即免费体验:https://gpumall.com/login?type=register&source=cnblogs全新Gemini1.5Pro支持200万t......
  • 精通RAG架构:从0到1,基于LLM+RAG构建生产级企业知识库
    文章很长,且持续更新,建议收藏起来,慢慢读!疯狂创客圈总目录博客园版为您奉上珍贵的学习资源:免费赠送:《尼恩Java面试宝典》持续更新+史上最全+面试必备2000页+面试必备+大厂必备+涨薪必备免费赠送:《尼恩技术圣经+高并发系列PDF》,帮你实现技术自由,完成职业升级,薪......