首页 > 其他分享 >解密Prompt系列13. LLM Agent-指令微调方案: Toolformer & Gorilla

解密Prompt系列13. LLM Agent-指令微调方案: Toolformer & Gorilla

时间:2023-08-17 09:36:27浏览次数:46  
标签:13 调用 Toolformer 模型 样本 微调 Agent API 工具

上一章我们介绍了基于Prompt范式的工具调用方案,这一章介绍基于模型微调,支持任意多工具组合调用,复杂调用的方案。多工具调用核心需要解决3个问题,在哪个位置进行工具调用(where), 从众多工具中选择哪一个(Which), 工具的输入是什么(What)。Where + Which + What,我称之为3W原则,3H它兄弟哈哈哈哈~

其实如何教大模型使用工具,和教人类使用工具没啥区别。就像上周末我想给我妈买的可以防弹,超重的岩板餐桌按个滑轮需要使用电钻,那我学习使用电钻的途径无非有三种

  1. 基于历史经验:我之前都是手动的没用过电动的,我凭借自信直接上手结果拧歪了......对应到LLM其实就是本章要提到的工具微调,我们让模型先学习在在不同的场景使用什么工具,如何使用,再利用大模型的迁移泛化能力泛化到更多的场景。
  2. 从工具说明书中学习:我去翻了翻说明书,奈何写的太抽象没看懂......对应到LLM简单版的就是上一章的zero-shot prompt方案,告诉大模型工具的使用场景和用法;升级版就是之后会提到的优化方案,我们可以动态召回工具的完整说明书和使用范例作为上文输入模型
  3. 通过观察他人使用工具来学习:最终我打开小红书看短视频学习了下,一点就通,于是我拥有了可丝滑移动的防弹餐桌!对应到LLM简单版就是上一章介绍的few-shot prompt方案,我们让LLM看到在其他场景它是如何使用工具的;升级版就是之后会提到的动态few-shot prompt的方案。

下面我们看下通过微调为模型注入工具使用经验的两个方案:Toolformer和Gorilla

Toolformer

  • TALM: Tool Augmented Language Models
  • Toolformer: Language Models Can Teach Themselves to Use Tools
  • 填充式工具使用 + InContext制造自监督样本

Toolformer是工具调用领域的前辈,使用LM监督微调得到可以进行Inline工具调用的模型。解码时,模型会在恰当的位置生成API调用的请求,并中止解码,去调用API得到返回值,把返回值拼接到"->"字符之后,再继续模型解码,如下

Toolformer的创新主要在API调用的样本构造,因此我们先来看下样本构造的部分

样本

Toolformer单一API的样本构造主要包含以下3个步骤

  • Sampling API

以QA API为例,作者会先编写几个样本作为In-Context,得到以下的FewShot指令样本

然后针对新的长度为N的输入文本,作者会计算每个位置得到<API>前缀的条件解码概率,并保留超过阈值的TopK个最优可能出现<API>的位置。然后每个位置,基于上文,让模型随机解码m次生成m个候选的API调用请求。这样我们就得到了候选样本集,每一段文本,最多有K个可能进行工具调用的位置,且每个位置有至多m个候选请求{c1,...cm}。

  • Executing API Calls

执行以上得到的候选请求,每个请求得到一个对应的返回值{r1,....rm}。 可以是计算器的结果,维基百科的搜索返回等等

  • Filtering API Calls

最后是过滤筛选,原理是好的工具调用样本,应该会让工具调用位置后面的文本解码概率提高,Perplexity降低。因此作者计算了在工具调用位置之后,所有token的加权条件解码概率。

以上加权的权重计算如下,离工具调用位置越远权重越小

条件解码概率的条件Z,分别是[工具调用+返回值],[工具调用+无返回值],[无工具调用],这三者中Loss较小的一个,过滤方案是[工具调用+工具返回值]的Loss降幅超过阈值,则保留该样本

整体量级上,1个API生成了25K左右的样本用于微调,样本长度1024

微调

使用以上样本生成方案得到多API调用的样本集混合后得到增强训练样本。样本的构建方式是在原始文本中直接插入API调用的语句\(x_{1:i-1},e(c_i,r_i),x_{i:n}\),如下

The Nile has an approximate length of QA(What is the approximate length of the Nile?)->6,853 km 6,853 kilometers, the White Nile being its main source

这样通过微调,模型会学习到在什么位置使用什么样的工具,以及工具的请求输入。同时和解码的格式保持一致,后文会依赖API调用结果进行解码。微调使用了GPT-J模型,Batch=128, lr=1e-5,warmup=10%,训练了2K step,常规的LM Loss.

总结

Toolformer的创新主要在使用模型的Few-shot理解能力,使用少量的人工标注样本制造大量的自监督样本。这样Tooformer理论上可以支持任意的API工具。但Toolformer有一些局限性

  1. 工具独立:论文中每个API调用的样本是独立构造的,工具之间没有交互,且同一工具的多次调用之间也是独立,不依赖上文的调用返回。
  2. 常规解码:没有引入思维链推理,限制了最终效果

Gorilla

  • HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in HuggingFace
  • TaskMatrix.AI: Completing Tasks by Connecting Foundation Models with Millions of APIs
  • Gorilla:Large Language Model Connected with Massive APIs
  • https://github.com/ShishirPatil/gorilla

Gorilla在HuggingGPT,TaskMatrix.AI这两个API调用的前辈的基础上,加入了指令微调来提升API调用效果。Gorilla支持TorchHub,TensorflowHub,Huggingface总共1645个API,且可以泛化到新的API上。

样本

Gorilla使用Self-Instruct来构建指令样本,用的是GPT4模型。构建方案是以上3个API Hub, 每个Hub各人工编写6个指令样本。每一轮随机从6个样本中采样3个作为Few-Shot,并通过指令让GPT4随机生成10个真实世界的使用case,总共生成16450个指令样本,生成的指令样本如下

同时Gorilla加入了Retriever-Aware,也就是在以上的指令样本中,指令后面会拼接上API的使用说明:"Use this API documentation for reference: <retrieved_API_doc_JSON>"

这样在推理阶段,会先根据用户的指令召回最相关、最新的API使用说明。降低模型幻觉的同时,使得模型有更好的泛化性,可以适应全新的API接口,或者已有API接口的参数变化。

微调&推理

微调的部分比较常规就是在LLama-7B模型上,使用以下参数在8*A100(40G)进行指令微调。

在推理阶段会同样加入API Retriever根据用户的指令召回最相关的API使用说明,和用户输入拼接,喂进模型推理。召回方案作者尝试了BM25和GPT的Embedding,不过不同召回方案的效果和API本身相关,没有谁一定更好这一说。

效果上微调后7B的LLama模型使用GPT Embedding召回工具说明,在工具调用上的准确率可以显著超越GPT3.5使用Prompt方案的调用效果

总结

对比上一章基于Prompt的方案Self Ask,ReAct和这一章基于微调的方案Toolformer,Gorilla,指令微调的方案有以下优势

  1. planning效果更好:微调方案比Prompt方案在复杂问题规划上效果更好,尤其适合本身In-Context能力有限的小模型
  2. 工具调用准确率更高:针对复杂工具调用的准确率更高
  3. 不受模型迭代影响:GPT3.5->GPT4的升级,让不少基于Prompt指令的应用们需要集体进行prompt调整,因为模型指令变了.......以及不同模型之间的指令或有不同。但微调方案不受这一点影响,因为指令微调本身就是对齐的过程,因此更robust

缺点自然是没有开箱即用的Prompt方案灵活,所以不妨用prompt方案来进行前期测试,后期用微调来提升效果。

但其实不论是prompt方案还是微调方案,其实都是LLM Agent应用中的工具调用规划这一个子模块,要真正搭建可以落地的大模型应用,需要更系统的整体设计,这块我们放在下一章说~

想看更全的大模型相关论文梳理·微调及预训练数据和框架·AIGC应用,移步Github >> DecryPrompt

标签:13,调用,Toolformer,模型,样本,微调,Agent,API,工具
From: https://www.cnblogs.com/gogoSandy/p/17609053.html

相关文章

  • The 13th Northeast Collegiate Programming Contest
    ProblemB.BalancedDiet其实就是对每种糖果从大到小的排序后,计算前缀和后再\(O(n)\)处理,由于最多只有\(n\)个糖果,所以最大复杂度是\(O(nlogn)\)。对于题目给的每种糖果的限制\(limit\),就把当前小于\(limit\)的贡献加到\(max(limit,i)\)上。vector<int>g[N];voids......
  • t113-c-curl使用
    先复制文件到要用到的项目中注意:复制.so文件在linux中不可以直接复制粘贴,必须要在linux命令行输入cp到指定的路径才可以,不然只会复制到软链接改一下cmakecmake_minimum_required(VERSION3.12.4)SET(CMAKE_C_COMPILER/home/momo/Tina-Linux/prebuilt/gcc/linux-x86/arm/too......
  • t113-c-多点触摸
    新的数据线到了,可以测试触摸了数据分析经过上次的触摸的设置基本上可以用了,但是得到的是一堆数据,那么怎么看这堆数据呢?标出来的这一部分基本上就是一次报文,主要的是type和code,type0x03表示是abs设备,code要对标头文件:同样的,这篇文章对此解释得到很清楚:https://blog.csdn.net......
  • 暑假周记(8.13)
    replace(intstart,intend,Stringstr):使用给定String中的字符替换此序列的子字符串中的字符intcapacity():当前容量charcharA(intindex):返回此序列中指定索引处的char值voidensureCapacity(intminimumCapacity):确保容量至少等于指定的最小值voidgetChars(intsrcBegin,i......
  • ITK 实例13 ITK分水岭算法对PNG图像进行二维分割
    1#include<iostream>2#include"itkVectorGradientAnisotropicDiffusionImageFilter.h"3#include"itkVectorGradientMagnitudeImageFilter.h"4#include"itkWatershedImageFilter.h"56#include"itkImage......
  • teamcenter awc 这两个柱状图数据比例差别太大,导致进行中的13条数据显示不出来,点击事
    原因: 解决方法:修改参数: ......
  • i513400f和i512400f差距 i5 13400f和i5 12400f区别对比
    i512400f是6核12线程,默认主频2.5GHz,单核最大加速频率4.4GHz,全核最大加速频率4.0GHz,不支持超频,二级缓存7.5MB三级缓存为18MB,内存支持DDR5-4800/DDR4-3200,TDP功耗为65W.组装电脑选i512400F还是i513400F怎么搭配更合适这些点很重要 http://www.adiannao.cn/dui5-13400f7nm工艺采......
  • i513400f参数 i5 13400f性能怎么样酷睿i5 13400f属于什么水平
    i5-13400f7nm工艺采用拥有6个大核和4个小核,共计10核16线程,主频2.5GHz,全核睿频可达4.4GHz,单核睿频4.6GHz,配备28MB的L3缓存,基础功耗65W。i513400f组装电脑怎么搭配更合适这些点很重要 http://www.adiannao.cn/du ......
  • 评测 i5 13400F对比i5 12490F选哪个好
    i5-12490F采用6核心12线程设计(P核),但并非是i5-12400那样的原生6核,而是i5-12600K去掉4个E核的版本,因此它的单核性能更加强大,三级缓存也升级到了20MB之多,比i5-12400的18MB多了2MB。除了缓存更大之外,i5-12490F频率也有一些提升,基础频率从i5-12400F的2.5G......
  • i7 13700k核显性能 酷睿i713700k参数 i7 13700k功耗
    酷睿i7-13700K核心代号为RaptorLake,采用的是增强版的Intel7工艺(10纳米),不锁频设计,采用了全新的高性能混合架构,由8个性能核+8个能效核构成,最终规格为16核心24线程,其中性能核(P核)采用的是RaptorLake架构,基本频率为3.4Ghz,最高睿频可至5.4GHz,而能效核(E核)延续了Gracemot架构设计,单E......