AutoGPT旨在创建一个自动化的自我改进系统,能够自主执行和学习各种任务
项目基本信息
首先阅读项目的README.md,下述代理和智能体两个名词可互换
项目简介:一个创建和运行智能体的工具,这些智能体可以自动执行各种任务,简化生活。
入门指南:该项目由两部分组成,前端(AutoGPT Builder)和后端(AutoGPT Server ),在rnd目录下。前端用于设计代理,流程图的方式连接操作块。后端运行代理,一经触发持续运行。举例,youtube内容再利用代理,发布新视频后转录并编写搜索引擎优化的博客文章,发到其他账户。
项目目标:构建、测试、委托。有一个想法,构建去实现,测试变完美,委托让AI为你工作。
AutoGPT经典版
简介:提供了构建和管理代理的工具
Forge:提供智能体应用模板,用于创建智能体
Benchmark:创建测试环境,衡量智能体性能
UI:前端界面
CLI:命令行界面
姊妹项目:Agent Protocol,采用AI工程师基金会的代理协议标准,规范代理到前端和基准的通信路径,及与其他程序的兼容
项目后端架构综述
项目后端架构的核心是AutoGPT Server,它负责运行和管理智能体(代理)。使用Python和FastAPI构建,支持异步操作和面向对象设计。关键组件包括:
-
Agent Factory:创建和管理AI代理。
-
Agent:智能代理系统,负责行为决策和执行。
-
App:包含配置管理、命令行界面、遥测设置等。
部署需要Node.js和Python 3.10,通过.env文件配置API密钥,使用pip和poetry管理依赖。数据管理采用Prisma ORM,支持异步数据库操作。任务调度使用APScheduler库,优化并发执行。
通信基于WebSocket,包括用户认证和数据库交互。自动化框架涵盖语言模型调用、HTTP请求等。图计算框架处理图的创建和调度。任务执行系统使用asyncio和ProcessPoolExecutor。
项目还包括CLI工具和脚本,简化开发流程。前端基于Flutter,后端服务通过FastAPI提供。整体架构设计为模块化,易于扩展,支持自动化任务的创建、测试和执行
官方文档解读
官方文档网址:AutoGPT Documentation (agpt.co)
项目组成:五个主要组件,Server、Agent、Benchmark、Forge、Frontend,另有一个CLI串联这些组件
Forge,官方文档显示不再使用。
部署运行
1.前置条件:安装node,python3.10
2.配置环境.env,主要是openai api key
3.后端项目部署运行:rnd/autogpt_server/readme.md中的命令,主要是用pip、 poetry安装依赖、prisma数据库,及启动(pip包安装器,不安装子依赖;poetry提供了更全的项目管理功能,包括子依赖)
4.前端项目部署运行:rnd/autogpt_builder/readme.md,npm安装对应依赖及启动
主要文件夹功能
autogpt
autogpt/agent_factory:
构成了AutoGPT框架中用于创建和管理AI代理的核心组件。configurators.py负责配置代理,generators.py异步生成代理,而profile_generator.py与语言模型交互以获取代理配置。系统通过动态配置文件和指令集,实现了高度灵活性和自动化的代理生成流程。
autogpt/agent:
组成了一个智能代理系统,包括代理行为决策、执行、历史记录和状态管理。agent.py 定义了核心代理逻辑,agent_manager.py 负责代理的创建和管理,而 one_shot.py 处理一次性行动提案和提示策略。系统采用异步编程和面向对象设计,具备日志记录和错误处理功能
autogpt/app:
构成了AutoGPT应用程序的核心组件,一个基于人工智能的自动化工具。它们包括配置管理(config.py和configurator.py)、命令行界面(cli.py)、初始化脚本(__init__.py)、加载动画(spinner.py)、遥测设置(telemetry.py)、实用工具函数(utils.py)、主程序入口(main.py)、用户输入处理(input.py)、服务器协议实现(agent_protocol_server.py)以及AI设置交互式配置(setup.py)。这些模块协同工作,允许用户通过CLI与AutoGPT交互,配置和执行自动化任务,同时提供遥测和日志记录功能,确保了应用程序的灵活性和可扩展性
./_init_.py
./_main_.py
_init__.py文件负责在测试或CI环境中设置随机种子,以确保结果的可重复性。__main__.py文件定义了程序的入口点,通过调用autogpt.app.cli.cli()函数来启动命令行界面,允许用户与AutoGPT进行交互。整体上,这些文件为AutoGPT的运行和测试提供了必要的配置和启动机制
script:
依赖检查工具check_requirements.py,自动验证项目依赖;基于Git日志生成发布说明的工具git_log_to_release_notes.py,简化文档编写;以及模型服务部署脚本serve.py,用于快速部署和提供AI模型服务。它们共同支持自动化和简化软件开发流程
rnd
market:开放的AI代理平台,AI解决方案,提供多种功能,如代理搜索、详细列表、用户资料和数据保护
autogpt_builder:前端项目包,基于flutter框架,dart语言,可使用移动和web终端
autogpt_server:后端项目启动
autogpt_server
./setup.py
./linter.py
共同构成了"AutoGPT Server"应用程序的代码质量和打包流程。linter.py负责代码检查和格式化,使用ruff、isort、black和pyright等工具确保代码质量。setup.py用于自动化应用程序的设置和打包,支持跨平台图标设置和多种安装包格式
./autogpt_server/blocks
构成了一个多功能的自动化框架,涵盖了大型语言模型(LLM)调用、HTTP请求、社交媒体平台(如Medium、Reddit、Discord)交互、RSS阅读、数学计算、文本处理、时间操作、CSV文件读取和电子邮件发送等功能。它们通过定义不同的模块和类,实现了数据获取、处理和交互的自动化,适用于开发涉及多种网络服务和数据处理的复杂应用
./autogpt_server/data
构成了一个图计算框架,涉及图的创建、执行、调度和管理。包括定义图块(Block)、用户(User)、执行(Execution)、图(Graph)、数据库(DB)操作以及计划(Schedule)管理。使用Prisma作为ORM,支持异步操作,遵循模块化设计,易于扩展。
./autogpt_server/executor
构成了一个任务调度和执行系统。scheduler.py负责周期性任务的调度,使用APScheduler库。__init__.py作为模块初始化,公开了ExecutionManager和ExecutionScheduler。manager.py处理任务的异步执行和管理,使用asyncio和ProcessPoolExecutor优化并发执行。系统通过服务接口支持任务的添加、更新和查询
./autogpt_server/server
组成了一个基于FastAPI的AutoGPT后端服务,包括WebSocket通信管理、用户认证、数据库交互、任务执行调度和配置更新等功能。主要模块有连接管理、WebSocket API路由、服务器核心逻辑和数据模型定义
./autogpt_server/usecases
构成了一个自动化系统,用于构建和执行任务图。block_autogen.py 自动生成代码块,sample.py 提供基础输入输出示例,而 reddit_marketing.py 则专注于Reddit平台的营销自动化。它们共同利用autogpt_server框架,通过定义节点和链接来实现特定功能,并异步执行这些任务图
./autogpt_server/util
构成了一个服务器应用程序的框架,涉及JSON处理、线程同步、数据管理、进程控制、类型转换、RPC服务以及配置管理。具体包括动态数据编码、模拟对象创建、基于键的互斥锁、路径获取、后台进程抽象、类型安全转换、异步服务暴露与通信、配置与密钥管理以及集成测试工具。整个项目利用了fastapi、expiringdict、Pyro5、pydantic等库来支持其功能
./autogpt_server/__init__.py
./autogpt_server/app.py
./autogpt_server/cli.py
这两个文件共同构成了AutoGPT服务器的命令行工具和应用逻辑。cli.py负责与用户交互,提供启动、停止和测试服务器的功能。app.py则负责应用的多进程管理和服务的启动。代码使用了click库来创建命令行接口,psutil库来管理进程,以及autogpt_server模块中的一些自定义类和函数来实现具体的业务逻辑
其他文件夹
frontend-前端
benchmark-测试环境提高质量
forgs--模板工厂,已废弃
标签:AutoGPT,AI,py,代理,server,解读,开源,autogpt From: https://blog.csdn.net/m0_53842576/article/details/141437844