首页 > 其他分享 >关于在大模型战略资源储备的不同阶段,B端开发者的行动策略的一些思考

关于在大模型战略资源储备的不同阶段,B端开发者的行动策略的一些思考

时间:2023-06-27 15:11:52浏览次数:31  
标签:prompt 训练 模型 微调 基模 综合性 开发者 思考

一、大模型产业链的终态猜想

我们先定义理想状态下,大模型应该具备哪些综合性能:

  • 指令理解能力:能够理解并遵循指令,并按照指令完成相应的逻辑推理、知识抽取、概念总结、API调用等任务
  • 多语言理解能力:能够同时理解包括中文、英文等主流语言
  • 逻辑推理能力:能够将复杂任务分解为相互串联依赖的子任务,通过分治的方法进行链式地逻辑推理,并最终解决问题
  • 知识抽取能力:能够有效压缩、表征海量训练集中的有效知识,并存储在深度神经网络内部
  • 概念总结能力:能够对输入内容进行抽象总结,并根据指令要求,形成新的格式化内容结构
  • 有限外推自控能力:对模型内部不存在的知识能够控制幻觉生成,能够保证生成的内容永远是有用的
  • 合规自控能力:模型内部蕴含复合公序良俗、符合人类共同价值观的规范

基于以上理想状态下的大模型,整个产业链的形态可以大致描述如下:

  • 少数拥有高质量数据(多样性、丰富性、海量、信息质量高)的巨头公司/科研机构会不断迭代推出极高质量的基础大模型,大模型预测的token成本会随着边际效应不断降低,直至突破人力成本线
  • 随着基础大模型性能的不断提升,B端开发者基于基础大模型的“再训练”以及“微调”行为,ROI逐渐降低。基础大模型成为新的实际意义上的“通用操作系统”,“自研操作系统”的意义逐渐丧失,接入基础大模型到现有业务流中成为最佳选择
  • B端的开发工作转向“prompt engining(prompt工程)”,在应用端需求的拉动下,该领域会迎来海量场景的大规模爆发,同时也伴随着大量的新开发范式被提出,例如
    • 基于prompt接口规范定义的元编程:通过prompt template近似实现“数据+prompt temple驱动的NLP Program”
    • Role-Play prompt:让大模型成为特定领域任务的助手
    • API-call prompt:让大模型成为传统软件User-Interface的NLP交互界面,灵活翻译用户的输入指令,并和Web2.0的现有IT基础设施进行交互,大幅度提升软件的用户交互体验
    • ......
  • 数据的价值会越来越受到人类重视,产权问题和保护主义会逐渐占据上峰

笔者猜想,上面描述的终态会在1到2年内达到,整个B端软件的开发和交付范式将完成一次彻底的蜕变。

 

二、过渡阶段不同开发方式的主要影响因素分析

通过第一章的讨论,我们已经很明确的一件事是:

基础大模型是未来一段时间软件行业的核心战略资源。

但是,处于过渡阶段期间,基础大模型的能力还并不完善,各个下游SaaS厂商所拥有的基础大模型资源又是不同的。同时,出于市场竞争的缘故,各家SaaS厂商又不可能傻等到基础大模型(通用操作系统)完全成熟后,再集成到各自的业务流中,因此,在未来1年多时间内,整个行业中会处于剧烈的整合实践中,各家SaaS厂商都会根据自己的实际情况,动态地投入资源并不断调整开发范式。

我们粗略地将行业开发范式分为以下几种状态:

完全没有基础大模型 ===> 拥有较弱综合性能的基模大模型 ===> 拥有中等综合性能的基模大模型 ===> 拥有完美综合性能的基模大模型
    • 完全没有基础大模型:缺乏最基本条件,无法开发大模型相关开发工作
    • 拥有较弱综合性能的基模大模型:基模大模型的预测能力几乎为零,迫于业务需求,只能通过SFT等技术,训练出服务于单一场景的专有LLM模型,仅能解决单一/少量场景问题,泛化能力很差
拥有中等综合性能的基模大模型
    :基础大模型已经具备一定的指令理解和逻辑推理能力,但离直接完成领域任务依然存在一定距离(核心是)。处于这个阶段的厂商,需要双线作战,
    • 提升预训练效果方向:通过扩大预训练的数据集范围以及质量,提升基础大模型的综合性能(建议投入80%以上精力)
    • 提升微调效果方向(SFT或者二次预训练):打开全参数微调,并在新领域任务数据(注意同样要满足多样性原则,避免单一领域数据)中混入一定比例(例如超过30%)原始预训练数据,以期获取综合性能优良的微调模型(建议投入20%精力)
  • 拥有完美综合性能的基模大模型:基础大模型已经完美胜任目标领域任务,通过prompt engining可以实现超级灵活的“数据+prompt temple驱动的NLP Program”

除了到达“拥有完美综合性能的基模大模型”终态的厂商,其他处于早期/中期的SaaS厂商,他们的目标都是一样的,都是不断争取向终态靠拢:

追求“SFT/Fine-tune LLM”尽可能高的综合性能,尽量避免模型向特定领域任务的过拟合,以期获得综合性能优良的微调模型

处于过渡阶段的厂商,因为受限于基础大模型战略资源等条件,因此不得不在以下几个方面作出折中:

  • 微调模型面向新领域任务泛化性能
  • 微调模型保持原有领域任务能力保持
  • 微调训练成本
  • 原始预训练样本可得性

接下来,我们进一步分析一下影响“SFT/Fine-tune LLM”综合性能的因素,并讨论该如何缓解这些影响因素。

 

三、影响“SFT/Fine-tune LLM”综合性能的因素分析

通过VGG16微调实验,阐述影响“SFT/Fine-tune LLM”综合性能的因素。

  • 基模型参数微调比例
  • 原始预训练样本混入比例

0x1:全参数训练 and 一定比例预训练数据+新领域任务数据

0x2:全参数训练 and 100%新领域任务数据

0x3:freeze一定比例基模型并stacking新神经网络 and 一定比例预训练数据+新领域任务数据

0x4:freeze一定比例基模型并stacking新神经网络 and 100%新领域任务数据 

综上,不管是做SFT-LLM还是二次预训练,最佳的做法是:

包含一定比例(例如30%以上)原始预训练数据,并开启全参数训练,这是避免微调模型陷入过拟合,获得最佳综合性能的一种最佳实践。核心思路都是希望下游微调模型也尽量具备泛化通用能力,尽量避免训练出服务于单一场景的专有LLM模型(仅能解决单一/少量场景问题)

 

 

 

标签:prompt,训练,模型,微调,基模,综合性,开发者,思考
From: https://www.cnblogs.com/LittleHann/p/17506649.html

相关文章

  • .NET Core WEB API中参数的模型绑定方式
    .NETCoreWEBAPI中参数的模型绑定方式有以下几种:参考文献:.NETCoreWEBAPI中接口参数的模型绑定的理解-枫叶456-博客园(cnblogs.com)微软官方说明文档 FromForm:当请求属于表单提交,也就是content-type为application/x-www-form-urlencoded,则必须给参数加上From......
  • 搜索语义模型的大规模量化实践
    作者|把酒问青天导读经过近几年的技术演进,语义模型在百度搜索场景中被广泛地应用,消耗了大量的GPU资源,模型压缩技术也随之得到大量研究和实践。通过兼顾推理性能、业务效果和迭代效率的优化目标,我们成功地将INT8量化技术大面积地应用到了搜索场景中,极大地提高了资源效能。此外,目前......
  • 自动驾驶横纵向耦合控制-复现Apollo横纵向控制 基于动力学误差模型,使用mpc算法,一个控
    自动驾驶横纵向耦合控制-复现Apollo横纵向控制基于动力学误差模型,使用mpc算法,一个控制器同时控制横向和纵向,实现横纵向耦合控制matlab与simulink联合仿真,纵向控制已经做好油门刹车标定表,跟踪五次多项式换道轨迹,效果完美。内含三套代码,两套采用面向对象编程-一套只对控制量添加约......
  • 直驱永磁风机并网chopper低电压穿越 可调节电网,交流断路器,LCL 滤波器,网侧变换器,Choppe
    Matlabsimulink仿真,直驱永磁风机并网chopper低电压穿越,版本matlab2018a直驱风力发电系统MATLAB仿真说明原创文章,转载请说明出处,资料来源:http://imgcs.cn/5c/672811739737.html1MATLAB仿真模型直驱风力发电系统MATLAB仿真模型如图1所示,主电路从左到右包括:可调节电网,交......
  • 论文插图也能自动生成了,用到了扩散模型,还被ICLR接收
    前言 如果论文中的图表不用绘制,对于研究者来说是不是一种便利呢?有人在这方面进行了探索,利用文本描述生成论文图表,结果还挺有模有样的呢!本文转载自机器之心仅用于学术分享,若侵权请联系删除欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV......
  • 实用模型推荐(三)语音转文本模型:whisper
    1.开原地址:https://github.com/openai/whisper          https://github.com/guillaumekln/faster-whisper2.使用场景:语音转文字3.api封装:importosimportuvicornfromfastapiimportFastAPI,UploadFile,Filefromwhisperimportload_modelap......
  • 实用模型推荐(二)中译英翻译模型:opus-mt-zh-en
    1.开源地址:https://huggingface.co/Helsinki-NLP/opus-mt-zh-en2.使用场景:中译英,多模型场景的中英转换3.API封装importuvicornfromfastapiimportFastAPIfromloguruimportloggerfrompydanticimportBaseModelfromstarlette.middleware.corsimportCORSMiddle......
  • phi-1:高质量小数据小模型逆袭大模型
    人工智能的三个核心要素是算力、算法和数据,这是大多数人在初识人工智能时都会接触到的一个观点。不过,在深入阐述该观点时,很多材料都倾向于解释数据「大」的一面,毕竟当前的大模型一直在由不断增加的「大数据」来推动,而且这条路似乎还没有走到极限。不过,随着数据获取难度增加以及......
  • LLaMA模型微调版本 Vicuna 和 Stable Vicuna 解读
    Vicuna和StableVicuna都是LLaMA的微调版本,均遵循CCBY-NC-SA-4.0协议,性能方面Stable版本更好些。CCBY-NC-SA-4.0是一种知识共享许可协议,其全称为"署名-非商业性使用-相同方式共享4.0国际"。即用的时候要署名原作者,不能商用,下游使用也必须是相同的共享原则。VicunaVicun......
  • 实用模型推荐(一)相似度,文本向量化:text2vec-base-chinese
    1.开源地址:https://github.com/shibing624/text2vec2.使用场景:文本相似度计算,文本转指令3.API封装:importuvicornfromfastapiimportFastAPIfromloguruimportloggerfrompydanticimportBaseModelfromstarlette.middleware.corsimportCORSMiddlewarefromte......