首页 > 其他分享 >From "LLM" to "Agent"(从大语言模型到智能体)

From "LLM" to "Agent"(从大语言模型到智能体)

时间:2024-09-04 12:37:05浏览次数:5  
标签:模型 Agent 从大 ReAct 记忆 LLM Agents

比尔·盖茨近期发表了一篇博客,其中谈到Agents将会是LLM的未来方向。LLM是一个Decoder,是Agent的大脑。LLM和Agent的区别,正如GPT-4和ChatGPT的区别。

1 Intro

如图所示:

  • Agents具有运用“Tools”的能力,可以调用外部api或沙盘来执行代码;
  • Agents具有多种“Memory”的能力,短期记忆指的是当前token内的上下文窗口,长期记忆指的是LLM的权重参数;
  • Agents具有可以“Planning”的能力,能够自主进行子任务分解和自我反省。

2 Tool Usage

能够使用工具是人类与其他生物在很多方面的区别。我们创造、修改和利用外部物体来扩展我们的身体和认知能力。同样,为大语言模型配备外部工具可以显著扩展其功能。

在AI Agents设置中,工具对应于一组工具集合,这些工具集合使LLM Agents能够与外部环境(如谷歌搜索、代码解释器、数学引擎等)进行交互。工具也可以是某种形式的数据库、知识库和外部模型。当Agents与外部工具交互时,它通过工作流执行任务,这些工作流帮助Agents获得观察结果或必要的上下文,以完成给定的子任务并最终完成完整的任务。

3 Memories

《普通心理学》书中将人的记忆区分为三种:感觉记忆(瞬时记忆)、工作记忆(短期记忆)、长时记忆(长期记忆)。

对于Agents来说,感觉记忆就是Embedding后的嵌入向量;工作记忆则是经过Transformer注意力机制捕捉后的隐状态序列;长时记忆则通常指大语言模型的权重参数。

除了内部记忆,Agents可以使用外部记忆如RAG机制。

4 Planning Strategy

Agents的规划能力是当前的最大挑战。

如图所示,有很多这样的论文,即思想链,思想树,思想算法(也称思想图)。这些方法都在原本的LLM Decoder上强调分步推理的提示工程和微调。提示工程帮助引导模型,模型具体的推理过程是自己分析得出的。

4.1 自我反省

上述规划模块不涉及任何反馈,这使得很难实现长期规划,特别是解决复杂任务所必需的。为了应对这一挑战,我们可以创建一个过程,以迭代地反映和改进基于过去的行动和观察的执行计划。目标是纠正和改进过去的错误,这有助于提高最终结果的质量。

和人类一样,Agents需要策略从错误中汲取教训。

ReAct

ReAct结合了推理和行动,旨在使LLM能够通过在一系列步骤(重复N次)之间交错来解决复杂的任务:Thought,Action和Observation。

Reflexion

这是一个基于ReAct改进,为智能体提供动态记忆和自我反思能力以提高推理能力的框架。反射有一个标准的强化学习设置,其中奖励模型提供一个简单的二元奖励,操作空间遵循ReAct中的设置,其中特定于任务的操作空间用语言增强,以支持复杂的推理步骤。

Chain of Hindsight(CoH)

模型被要求通过查看自己过去的工作来改进自己,进行评分,并附上关于下次如何做得更好的笔记。该模型通过使用其自身尝试和反馈的历史,尝试产生一个将获得更好评级的新输出来进行实践。

Algorithm Distillation(AD)

AD算法蒸馏将类似的想法应用于机器人或代理学习任务。代理回顾它在过去几次尝试中的表现,并试图找出改进的算法模式。然后,它预测下一步应该比之前的动作更好,学习变得更好的算法策略。

参考博文https://luxiangdong.com/2024/04/28/agents2/。

标签:模型,Agent,从大,ReAct,记忆,LLM,Agents
From: https://www.cnblogs.com/Arcticus/p/18396066

相关文章

  • LLM-文心一言:线程窃取
    线程窃取,也称为工作窃取(Work-Stealing),是一种多线程和并行计算中的负载平衡策略。这种策略允许那些已经完成了自己任务的线程去“窃取”其他线程尚未完成的任务,从而尽可能均衡地利用所有可用的计算资源。以下是关于线程窃取(工作窃取)的详细解释:一、定义与原理定义:线程窃取是指当......
  • LLM大模型基础知识学习总结
    大家好,我是Edison。在这个已经被大模型包围的时代,不了解一点大模型的基础知识和相关概念,可能出去聊天都接不上话。刚好近期我也一直在用GPT和GitHubCopilot,也刚好对这些基础知识很感兴趣,于是学习了一下,做了如下的整理总结,分享与你!一句话描述GPTGPT:GenerativePre-TrainingTra......
  • 使用docker部署tensorrtllm推理大模型baichuan2-7b
    简介大模型的推理框架,我之前用过vllm和mindie。近期有项目要用tensorrtllm,这里将摸索的过程记录下,特别是遇到的问题。我的环境是Linux+rt3090准备docker环境本次使用docker镜像部署,需要从网上拉取:dockerpullnvcr.io/nvidia/tritonserver:24.08-trtllm-python-py3Th......
  • 【大模型论文】Seed-ASR:基于llm的语音识别理解不同的语音和上下文
    研究背景1.研究问题:这篇文章要解决的问题是如何在现代自动语音识别(ASR)模型中,利用大规模语言模型(LLM)来提高识别准确性,特别是在多领域、多语言、多口音和多种应用场景下。2.研究难点:该问题的研究难点包括:现有端到端模型在数据匹配场景下表现良好,但在处理复杂语境和多语言场景时逐渐接......
  • 【新书】掌握大语言模型:高级技术、应用、尖端方法和顶尖LLMs
    主要特性探索自然语言处理(NLP)基础和大语言模型基本原理,包括基础知识、挑战和模型类型。学习数据处理和预处理技术,以实现高效的数据管理。了解神经网络概述,包括神经网络基础、循环神经网络(RNNs)、卷积神经网络(CNNs)和变压器模型。利用大语言模型的策略和示例。描述通过强大的大语言模......
  • Neural Magic发布GuideLLM:评估和优化大型语言模型(LLM)部署的强大工具
    大型语言模型(LLMs)的部署和优化已成为各种应用的关键。NeuralMagic推出了GuideLLM,以应对对高效、可扩展且具有成本效益的LLM部署日益增长的需求。这款强大的开源工具旨在评估和优化LLM的部署,以确保它们在满足现实中的推理需求的同时,具有高性能和最小的资源消耗。GuideLLM概述......
  • jmeter监控服务器工具jp@gc - PerfMon Metrics Collector(ServerAgent)
    需要在被测服务器上安装ServerAgent。然后在jmeter上安装插件jpgc-StandardSet一、在服务器上安装ServerAgentSeverAgent:这个工具,可以和jmeter集成,在jmeter的GUI界面可以看到数据。链接:https://pan.baidu.com/s/1k3xlXk35YfPmS17-2ZFBnA?pwd=5s4n提取码:5s4n......
  • 如何为你的 LLM 应用选择最合适的 Embedding 模型
    如果你正在构建2024年的生成式人工智能(GenAI)应用,你现在可能已经听过几次"嵌入(embedding)"这个词了,而且每周都能看到新的嵌入模型上架。那么,为什么会有这么多人突然关心起嵌入这个自20世纪50年代就存在的概念呢?如果嵌入如此重要,而且您必须使用它们,那么您该如何在众......
  • 揭秘 LiteLLM:轻松驾驭百余种语言模型 API,开发者的致胜法宝
    目录引言一、LiteLLM简介二、主要特点1.统一的调用接口2.输入输出标准化3.重试与回退逻辑4.预算和速率限制5.异步支持6.流式传输7.日志与可观测性三、使用方法1.安装2.设置环境变量3.调用模型4.异步调用5.流式传输四、相关项目资料地址结语引言在当......
  • LLM大模型学习:重磅首发!大模型LLM学习路线图来了!非常详细收藏我这一篇就够了
    ChatGPT的出现在全球掀起了AI大模型的浪潮,2023年可以被称为AI元年,AI大模型以一种野蛮的方式,闯入你我的生活之中。从问答对话到辅助编程,从图画解析到自主创作,AI所展现出来的能力,超出了多数人的预料,让不少人惊呼:“未来是属于AI的”。AI大模型——成为互联网从业者必备技能。......