首页 > 其他分享 >ChatGLM2-6B 微调改变AI自我认知

ChatGLM2-6B 微调改变AI自我认知

时间:2023-08-14 15:36:26浏览次数:53  
标签:6B torch AI ChatGLM2 微调 json

一、前言

  上篇说到ChatGLM2-6B及百川大模型的本地部署实战,实际商业项目中可能还需要在此基础上对模型进行相关微调再进行应用。本篇文章带大家微调入门教学。

  注意:当前为AI技术高速发展期,技术更新迭代快,本文章仅代表作者2023年8月的观点。

    上篇文章:ChatGLM2-6B清华开源本地部署

二、微调依赖项目

  https://github.com/hiyouga/ChatGLM-Efficient-Tuning

  

三、数据集准备

  1、在项目的/data目录下,复制一份self_cognition.json,改为train001_cognition.json

  

  

  instruction是问题,output是回答

  2、更改dataset_info.json文件,新增刚才的文件索引

  

四、开始训练

  1、还是先安装相关依赖:pip install -r requirements.txt

  2、采用lora微调模型,设置数据集,更改模型地址,执行该sh

   

  

  3、测试

  

  

  4.输出微调后模型

  

    会默认输出到项目文件夹的model目录

五、其他

  1、建议使用conda虚拟环境

  2、该微调不支持ChatGLM2-int4,否则会报错:ValueError: Target module QuantizedLinear() is not supported. Currently, only `torch.nn.Linear` and `Conv1D` are supported.

  3、各种环境的版本要能匹配上,否则会出现各种奇怪的问题

  4、torch一定是GPU模式,而不是cpu,即torch.cuda.is_available()=true

  5、切换数据集重新训练要清空output文件夹C:\Users\A\.cache\huggingface文件夹

  6、要持续学习各项微调的参数,防止过拟合,loss要稳定下降,不能为0,到0.1左右是比较合适的

标签:6B,torch,AI,ChatGLM2,微调,json
From: https://www.cnblogs.com/xhq1024/p/17628639.html

相关文章

  • 服务器数据恢复-6盘RAID5中2块磁盘故障离线,强制上线硬盘失败的数据恢复案例
    服务器数据恢复环境:DELLPOWEREDGE某型号服务器中有一组由6块SCSI硬盘组建的RAID5阵列,LINUXREDHAT操作系统,EXT3文件系统,存放图片文件。服务器故障&分析:服务器raid5阵列中有一块硬盘离线,管理员没有及时发现,直到服务器raid5阵列中的另一块硬盘掉线,raid5阵列瘫痪,服务器无法正常工......
  • [完结8章]程序员的 AI 启蒙课,ChatGPT 辅助开发 Vue3 项目
    点击下载:程序员的AI启蒙课:ChatGPT让你1人顶3人提取码:8zwd Vue是一款用于构建用户界面的JavaScript框,它基于标准的HTML、CSS和JavaScript构建,并提供了一套声明式的、组件化的编程模型,用以帮助开发者高效地开发用户界面。目前,Vue3.0正式版也发布了两年的时间,越......
  • 记录一次调查OpenEuler上部署K8s,CoreDNS组件一直 CrashLoopBackOff ,describe 时 Back
    详细过程不赘述了。百度了很多办法都不可用,然后尝试重装k8s好多次也不管用。 最后解决。kubectleditdeploymentcoredns-nkube-systemapiVersion:apps/v1kind:Deploymentmetadata:annotations:deployment.kubernetes.io/revision:"2"creationTimestamp......
  • AI正在进入约会游戏领域
    在滑动无尽的站在山顶上的人们的照片时,机器人通常是你最不想在约会应用上遇到的东西,但Tinder正在准备利用AI的力量来提升你的个人资料。这款应用已经在其匹配算法中使用了人工智能,现在已经开始测试新的面向客户的工具。其中一个工具可以筛选你的照片,并选择最好的五张进行展示(希望能......
  • 如何基于 ACK Serverless 快速部署 AI 推理服务
    作者:元毅随着AI浪潮的到来,各种AI应用层出不穷,众所周知AI应用对GPU资源强烈依赖,但GPU很昂贵,如何降低GPU资源使用成本成为用户首要问题。而AI与Serverless技术结合,完全可以达到按需使用资源,降低资源成本的目的。那么在云原生场景下,是否有这样开箱即用、标准、开放的......
  • Git:Vscode提交报错Make sure you configure your "user.name" and "user.email" in gi
    使用VScode编辑代码后,Push到云端报错:Makesureyouconfigureyour"user.name"and"user.email"ingit解决步骤:1.进入本地端的文件夹,右键GitBash; 2.输入命令:$gitconfig--globaluser.name"your_username"#配置用户名$gitconfig--globaluser.email&qu......
  • 如何基于 ACK Serverless 快速部署 AI 推理服务
    作者:元毅随着AI浪潮的到来,各种AI应用层出不穷,众所周知AI应用对GPU资源强烈依赖,但GPU很昂贵,如何降低GPU资源使用成本成为用户首要问题。而AI与Serverless技术结合,完全可以达到按需使用资源,降低资源成本的目的。那么在云原生场景下,是否有这样开箱即用、标准、开放......
  • 生成式AI时代的AI Infra—从DevOps->MLOps->LLMOps
    来源:https://zhuanlan.zhihu.com/p/640725385 距离上次讲LLM相关的内容已经过去2个月了LLMasController—无限拓展LLM的能力边界,本文想要从AIInfra的角度出发,从更宏观的角度看GenerativeAI对AIInfra生态产生的变化,本文不局限于LLM,文中提到的LLM泛指一切GenerativeAI或者......
  • portainer
    https://hub.docker.com/r/portainer/portainer-ce/tags1、拉取镜像dockerpullportainer/portainer-ce:latest2、运行容器dockerrun-d\-p8001:8000\-p9001:9000\--name=portainer\--restart=always\-v/var/run/docker.sock:/var/run/docker.sock\-vportai......
  • python中的__main__.py文件
    在Python中,__main__.py文件在几个方面发挥作用:使目录可执行:当你有一个目录(或称为包)并希望能够像执行脚本那样运行它时,__main__.py文件会被调用。例如,如果你有一个名为mypackage的目录,它包含一个__main__.py文件,那么你可以通过以下方式运行它:python-mmypackage在上......