—*1*—
*什么是 AI Agent?*
第一、用快思考与慢思考类比大模型的能力
根据丹尼尔·卡尼曼的著作《思考,快与慢》,人类的思维可以分为两大系统:系统1和系统2。系统1负责直觉式的快速思考,这种思考往往是无意识的;而系统2则擅长进行有意识的逻辑推理和主动控制。
在探讨大型模型的思维能力时,我们首先可以观察到,这些大模型可能具备了类似人类的分析问题能力,它们能够理解、分析和解决复杂问题。进一步地,人类与动物的一个重要区别在于人类擅长创造和使用工具。随着大模型认知能力的不断提升,当它们遇到自身不擅长的领域时,这些大模型可能会展现出一种类似于人脑使用工具的能力——即寻找并利用适当的工具来解决问题,而不是直接依靠自身能力去解决。
第二、OpenAI 对 AI Agent 的定义
在2023年6月,Open AI 的应用研究主管 Lilian Weng发 表了《LLM Powered Autonomous Agents》一文,其中她提出了一个公式:“智能体=大模型(LLMs)+规划(Planning)+记忆(Memory)+工具使用(Tools)”。
1)智能体的推理与执行能力,指的是利用大模型(LLMs)来理解、执行并回顾任务。这包括将复杂任务分解为更小、更易管理的子任务以提高效率,并且通过吸取历史经验和错误教训来优化行动的质量。
2)智能体具备短期与长期记忆功能:短期记忆通过利用提示(Prompt)中的信息和上下文数据进行学习,而长期记忆则通过外部向量存储和快速检索技术来实现,这使得智能体能够在更广泛的时间跨度内存储和回忆(理论上无限)信息。
3)智能体具有调用外部 API 来使用“工具”的能力,这包括浏览网页、启动应用程序、读写文件、进行支付甚至操控用户设备等。与传统的自动化工具不同,AI智能体能够在未知和不可预测的新环境中有效工作。
4)在Open AI 的定义基础上,还应补充智能体的反馈接受能力。正如人类在处理复杂任务时需要与环境互动,我们的行为会改变环境,环境也会给予我们反馈,我们根据这些反馈进行决策。因此,智能体应该能够根据采取的行动接收正面或试错性的反馈、阶段性成果或奖励,并据此进行下一轮的规划和行动。
第三、AI Agent 更广泛的定义
在 AI Agent 的整体架构设计中,一般可以将框架划分为五个主要模块:感知、定义、记忆、规划和行动。
- 感知模块:这一部分主要负责处理各种输入信息,确保智能体能够与环境进行有效的交互。
- 定义模块:该模块包含了智能体的特性、目标和其他相关属性信息。
- 记忆模块:涵盖了短期和长期记忆,它为智能体在处理复杂任务时提供历史数据和策略支持。
- 规划模块:涉及任务分解、反思、推理、策略制定等,是智能体的决策中心,类似于大脑的功能。
- 行动模块:负责以文本、实体动作、工具指令等多种方式输出智能体的决策结果。
—*2*—
*AI Agent 的关键能力要素*
第一、记忆能力
目前的研究普遍将记忆分为短期记忆和长期记忆两大类。
- -短期记忆主要依赖于上下文学习,但受到 Transformer 模型上下文窗口大小的限制。
- 长期记忆则更加广泛地应用于任务中,它涉及对世界的宏观和抽象理解。这包括存储生产系统的过程记忆、关于世界事实的语义记忆,以及代理过去行为序列的情节记忆。长期记忆通过参数知识存储(模型训练)和非参数知识存储(外部搜索)来实现。
- 对于超出常规上下文范围的长期记忆,学术界探索了两条路径:一条是扩展上下文,即将上下文支持扩展到100K甚至无限大;另一条是利用 RAG 和信息压缩技术,即对输入信息进行总结和压缩存储,仅在需要时提取相关记忆。
- 扩展上下文的方案相对简单,依赖于算力的提升和成本的降低,但目前的成本仍然较高。
- RAG 技术则是搜索相关信息片段,并将搜索结果融入大模型的上下文中,以便大模型基于这些结果回答问题。
- 信息压缩则是对信息进行总结,最基本的方法是文本总结,更高级的方法是使用指令访问外部存储,或者在模型层面使用 Embedding 技术进行总结。
第二、规划能力
规划是 AI Agent 解决复杂问题的关键能力,主要包括子目标分解、反思和提炼等。
-
子目标分解:通过思维链(CoT)技术,将大任务分解为多个更易管理的子任务,并为大模型的思维过程提供解释线索。思维树技术则通过在每一步探索多种推理可能性来扩展 CoT,创建一个树状结构的思考过程。
-
反思提炼:ReAct 技术通过将动作空间扩展为特定任务的离散动作和语言空间的组合,将推理和动作整合到 LLM中。Reflexion 框架则为智能体提供了动态记忆和自我反思的能力,以提高推理技能。
-
ReAct 方法能够发挥 LLM 的推理能力,通过交错生成推理轨迹和任务特定的操作,实现推理与操作的协同。尽管存在一些局限性,如解决复杂问题的能力有限、成本不可控等,但它仍然是提升AI智能体能力的重要途径。
第三、行动能力
智能体的行动能力主要体现在文本输出、工具使用和具身动作等方面。
- 在工具使用方面,智能体主要通过微调或预设模型描述框架来调用外部API,实现对现有功能的使用或特定信息的访问。未来,随着模型能力的提升,智能体可能能够创造新工具。
- 如何让大模型学会按需使用工具?有两种观点:一种认为工具使用是过程记忆,需要通过 Fine-tuning 方法教授模型工具使用的样例;另一种认为工具使用是代码生成能力,可以通过 RAG 方法匹配工具并使用。
第四、减少幻觉
减少幻觉主要依赖于基础模型的进步和 Scaling Law,同时也有工程方法可以减少现有模型的幻觉。
- 事实性校验:首先使用大模型生成回答,然后通过 RAG 方法找到与回答内容匹配的原始语料,最后让大模型判断回答的准确性。
- 多次生成:论文 SelfCheckGPT 提出的多次生成方法,通过多次生成同一问题的回答并让大模型挑选最一致的回答,以减少偶发的幻觉问题,但无法解决系统性偏差。
—*3*—
*AI Agent 发展的三个阶段*
1、AI Agent 能力的三个发展阶段
\1) Embedding 嵌入式模式:这一阶段主要依赖于人类问答,提供信息和建议,这是目前最普遍的大模型(LLM)应用方式。
\2) Copilot 辅助驾驶模式:在这一阶段,Agent 基于人类设定的目标,完成单一或简单任务。
\3) Agent 智能体模式:智能体在这一阶段能够基于人类的目标,执行多任务、复杂任务或任务组合。
2、ChatGPT 代表了第一阶段的大模型能力。它并不完全符合 Agent 的典型定义,主要向用户提供广泛的世界知识。
3、目前,单一任务场景下已有一些 AI 应用实例
在办公场景中,我们有 Microsoft 365 Copilot(及其新推出的个人版 Copilot Pro)、Google Duet AI、专注于轻文档办公的 Notion AI、辅助代码开发的 Copilot X 以及数据分析处理的 Deepnote AI 等。这些应用常见的功能包括起草文档、内容汇总、提供公式建议等,它们通常以侧边栏或对话框的形式出现,帮助用户自动调用工作空间中的文件和信息,并进行处理生成。
4、展望未来,AI Agent 将不仅仅局限于解决问题的执行层面,而是将进一步深入到如何解决问题的规划层面。
在工作场景中,我们对 AI Agent 的期待包括:
\1) 连续执行:Agent 能够对用户的任务指令进行拆解,分解为多个步骤,对这些步骤进行规划排序并连续执行。
\2) 完成复杂任务:目前 Agent 只能解决单个或少数简单任务,未来期望能够处理多个复杂任务。
\3) 多步骤规划:Agent 在执行后续步骤的同时,能够保持对任务目标和前序任务的记忆,具备强大的步骤规划执行能力。
那么,如何系统的去学习大模型LLM?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。
但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~