首页 > 其他分享 >书生浦语大模型实战营-结业材料

书生浦语大模型实战营-结业材料

时间:2024-02-26 11:22:40浏览次数:10  
标签:结业 www russellwang cnblogs 笔记 书生 https com 浦语

第一节课笔记 https://www.cnblogs.com/russellwang/p/18023910
第二节课笔记 https://www.cnblogs.com/russellwang/p/18023922
第二节课作业 https://www.cnblogs.com/russellwang/p/18024031
第三节课笔记 https://www.cnblogs.com/russellwang/p/18033843
第三节课作业 https://www.cnblogs.com/russellwang/p/18026171
第四节课笔记 https://www.cnblogs.com/russellwang/p/18033872
第四节课作业 https://www.cnblogs.com/russellwang/p/18031668
第五节课笔记 https://www.cnblogs.com/russellwang/p/18033879
第五节课作业 https://www.cnblogs.com/russellwang/p/18031817
第六节课笔记 https://www.cnblogs.com/russellwang/p/18033901
第六节课作业 https://www.cnblogs.com/russellwang/p/18031858
   

 

标签:结业,www,russellwang,cnblogs,笔记,书生,https,com,浦语
From: https://www.cnblogs.com/russellwang/p/18033915

相关文章

  • 课程4-笔记-书生浦语大模型实战营-4
    1、XTuner安装#如果你是在InternStudio平台,则从本地clone一个已有pytorch2.0.1的环境:/root/share/install_conda_env_internlm_base.shxtuner0.1.9#如果你是在其他平台:condacreate--namextuner0.1.9python=3.10-y#激活环境condaactivatextuner0.1.9#进入家目......
  • 课程5-笔记-书生浦语大模型实战营-5
    一、大模型部署1、模型部署及大模型特点模型大,token不固定,结构简单2、大模型部署遇到的问题及解决方案硬件、速度、技术、方案模型部署存在的问题:1、硬件需求相对较大,特别在于显卡及内存方面。2、由于模型较大,则速度就会很慢优化方法:1、在卷积神经网络中是有:剪枝、量......
  • 课程3-笔记-书生浦语大模型实战营-3
    对LLM进行增强的方法一般有两种:RAG(RetrievalAugmentedGeneration检索增强生成)或者finetune。其中,RAG可以简单理解为外接一个知识库,从而对某个特定的领域进行增强原始LLM的能力。相比Finetune而言,成本低,且实时性好。不需要对原模型进行修改,但是,也非常受限于原LLM的能力。RAG......
  • 书生开源大模型训练营-第1讲-笔记
    1、大模型是发展AGI的重要途径过去20年研究的是专用模型,最近两年,倾向一个模型解决多个任务  2、书生开源大模型的发展历程3、书生模型的体系:轻量级7b,中级20b,重量级123b4、书生模型的性能: 4、大模型应用:智能客服、个人助手、行业应用5、从模型到应用 6、书生......
  • 书生开源大模型训练营-第6讲-笔记
    1、模型评测的Why,WhatHow?为什么要做模型评测,评测什么,以及怎样评测。2、模型评测的Why?用户:可以知道那个模型好,便于选择开发者:知道模型的能力边界,以便提升3、What知识、语言、推理长文本生成、Agent工具的使用能力情感、认知垂直领域:如医疗4、How基座模型VS微......
  • 书生开源大模型训练营-第5讲-笔记
    1、大模型部署的背景a、大模型部署的挑战对设备的要求:存储大推理:生成token的速度、动态shape、内存管理服务:高并发下的吞吐量、单用户的响应时间b、技术方案:模型并行、量化Transfomer优化、推理优化2、LMDeploy介绍a、是在N卡上的全流程方案,包括轻量化、推理和服务,当......
  • 书生开源大模型训练营-第4讲-笔记
    1、FineTune简介1.1、为什么要微调?大语言模型有各行各业的通用知识,但具体深入到某个领域,模型表现不尽如人意,需要微调1.2、两种微调:增量预训练和指令微调1.4、增量预训练:给模型投喂额外的特定领域的知识语料,模型在新的语料上继续学习训练。1.5、指令微调:基座模型学习到到是在须......
  • 书生开源大模型训练营-第3讲-笔记
    1、大模型的局限性a、知识只能截止到训练时间;b、垂直领域的专业能力有限;c、训练成本高,定制化成本高; 2、解决大模型局限性的两种思路RAGVSFTRAG:外挂一个知识库,通过检索得到文档,再将检索到文档和问题一起输入给大模型来生成答案。优点:成本极低、知识可更新;缺点:受限于基座大......
  • 书生开源大模型训练营-第2讲笔记
    1大模型及InternLM模型简介1.1什么是大模型?大模型=大语料+大算力+大模型参数大模型的优势在于其能够捕捉和理解数据中更为复杂、抽象的特征和关系。书读三遍,其义自见大模型的应用和发展也需要在性能、成本和道德等多个方面进行权衡和考量。1.2InternLM模型全链条开源I......
  • 超越GPT-4V: 浦语·灵笔2在13项多模态评测的领先之旅
    前言在人工智能的不断发展中,多模态大模型成为了研究和应用的前沿。浦语·灵笔2作为一款基于书生·浦语2-7B模型研发的图文多模态大模型,不仅在技术上实现了重要突破,更在多项国际评测中展现出了卓越的性能。浦语·灵笔2是基于书生·浦语2大语言模型研发的突破性的图文多模态大模型,具......