• 2024-06-11书生·浦语大模型实战营 第八节课 微调弱智吧(如果AI可以正确回答弱智吧的所有问题,人类在AI眼里都是弱智吧!)
    读前感:第四节课也进行了简单的微调,但最终微调出来个傻子,这次再试试,看看如何进行改善。实际的应用场景中使用微调的应该不会特别多,毕竟开源大模型并不是小公司可以玩得起的。对于小公司,真正的微调有哪些场景呢?欢迎大家讨论。读后感:本节课是整个训练营的最后一份笔记。希望
  • 2024-06-01[书生·浦语大模型实战营]——在茴香豆 Web 版中创建自己领域的知识问答助手
    茴香豆是一个基于LLM的领域知识助手,可以用于解答群聊中的问题。接下来是创建过程。1.打开茴香豆Web版,创建自己的领域库。地址:茴香豆Web版这里类似于注册账号,你输入知识库的名称以及密码,然后它就会创建一个知识库,之后你就可以用名称和密码来管理你的知识库了。2.添加领
  • 2024-05-27课程及 InternLM2 技术报告笔记
    系列文章目录文章目录系列文章目录课程及InternLM2技术报告笔记课程及InternLM2技术报告笔记大模型成为发展通用人工智能的重要途径书生·浦语大模型开源历程书生·浦语2.0(InternLM2)的体系回归语言建模的本质书生·浦语2.0(InternLM2)的主要亮点
  • 2024-05-26[书生·浦语大模型实战营]——第三节:茴香豆:搭建你的 RAG 智能助理
    0.RAG概述定义:RAG(RetrievalAugmentedGeneration)技术,通过检索与用户输入相关的信息片段,并结合外部知识库来生成更准确、更丰富的回答。解决LLMs在处理知识密集型任务时可能遇到的挑战,如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成
  • 2024-05-24书生·浦语大模型全链路开源体系笔记
    大模型成为发展通用人工智能的重要途径专用模型专用模型:针对特定任务,一个模型解决一个问题。通用大模型:一个模型应对多种任务、多种模态。书生·浦语大模型开源历程书生·浦语2.0(InternLM2)的体系面向不同的使用需求,每个规格包含三个模型版本。7B:为轻量级的研
  • 2024-04-30后记-书生浦语大模型实战营第二期参营总结
    书生浦语大模型实战营第二期参营总结动机在历史洪流面前,人轻浮得像一粒沙:今年的Java后端又要炸了。作为一条研究方向为图像处理、导师不放暑期实习的硕士牛马,自觉疲惫。既然对就业的准备暂时略感疲惫,科研又有导师天天push自然不会太主动,那就换换心情学点LLM相关的内容满足自己的
  • 2024-04-22模型评测-书生浦语大模型实战营学习笔记7&大语言模型10
    大语言模型学习-10.模型评测书生浦语大模型实战营学习笔记7视频教程特别像广告,所以这篇博客参考了很多其他内容给大家参考,主要是下面几个页面:https://zhuanlan.zhihu.com/p/641416694https://www.cnblogs.com/justLittleStar/p/17845341.htmlhttps://zhuanlan.zhihu.com/p/68
  • 2024-04-16模型微调-书生浦语大模型实战营学习笔记&大语言模型5
    大语言模型-5.模型微调书生浦语大模型实战营学习笔记-4.模型微调本节对应的视频教程为B站链接。笔记对视频的理论部分进行了整理。大模型的训练过程模型视角这里原视频用的“分类”这个名字,我看到的时候还有点懵
  • 2024-04-10书生浦语大模型实战营第二期 第三次课笔记
    课程内容概述本节课介绍了RAG(RetrievalAugmentedGeneration)技术的基础知识。展示了如何使用茴香豆(Huixiangdou)搭建一个RAG智能助理。讲解了茴香豆的进阶用法,包括网络搜索、使用远程模型、搭建网页Demo等。1.RAG技术概述RAG技术结合了检索和生成,通过检索相关信息片段来增
  • 2024-04-10模型压缩与部署-书生浦语大模型实战营学习笔记&大语言模型7
    大语言模型-7.模型压缩与部署书生浦语大模型实战营学习笔记4-模型压缩与部署本文包括第二期实战营的第5课内容,介绍关于模型压缩的相关内容,主要包括、模型量化和模型部署的相关内容。模型部署定义:在软件工程中,部署通常指的是将开发完毕的软件投入使用的过程。在人工智能领域,模
  • 2024-04-09学习笔记:书生·浦语实战营第二期第三课
    目录1.相关视频和文档2.视频学习笔记2.1RAG的原理、架构、数据库、评估与测试2.2茴香豆的介绍、特点、架构3.课后作业1.相关视频和文档视频地址:茴香豆:搭建你的RAG智能助理_哔哩哔哩_bilibili课程文档:Tutorial/huixiangdou/readme.mdatcamp2·InternLM/Tuto
  • 2024-04-05书生浦语第二期实战营——第二课_part2
    这里写目录标题1基于`InternLM2-Chat-7B`运行`Lagent`智能体1.1介绍1.2实践准备运行1.3作业2部署`浦语·灵笔2`模型2.1介绍2.2实践(1)环境配置(2)图文写作(3)图片理解2.3作业(1)图文创作(2)视觉问答正文主要内容:运行Lagent智能体、部署浦语·灵笔2模型B
  • 2024-04-05书生浦语第二期实战营——第二课_part1
    目录0环境配置1部署`InternLM2-Chat-1.8B`智能对话模型1.1课程内容:(1)准备工作(2)代码流程1.2课程作业2部署`八戒-Chat-1.8B`模型2.1课程(1)准备工作(2)开启服务(3)本地对话2.2作业(1)snapshot_download(2)hf_hub_download(3)hf_hub_url(4)huggingface-cli正文:所有操
  • 2024-04-03轻松玩转书生·浦语大模型趣味 Demo——day2笔记
    本节课有四个任务:学习部署、玩角色扮演的agent项目,玩数学运算agent、玩写作agent 主要学习过程就是跟着视频,复制学习文档里的资料,完成demo的使用。主要目的是熟悉开发平台。视频:轻松玩转书生·浦语大模型趣味Demo_哔哩哔哩_bilibili资料:Tutorial/helloworld/hello_world.
  • 2024-04-03书生·浦语大模型趣味Demo课程笔记
    第二节书生·浦语大模型趣味Demo实践环境准备浦语大模型的开发机器支持了cuda11.7的基础环境和一些自动迁移conda配置脚本迁移conda环境命令:studio-conda-ointernlm-base-tdemo如果自己安装软件环境:condacreate-ndemopython==3.10-ycondaactivatedemoconda
  • 2024-04-02书生浦语第二期第二节课笔记(轻松玩转书生·浦语大模型趣味 Demo)
    以下内容是在InternStudio的开发机上运行的一、部署 InternLM2-Chat-1.8B 模型进行智能对话第一步:进入开发机后,在终端中输入以下环境命令配置进行环境配置studio-conda-ointernlm-base-tdemo#与studio-conda等效的配置方案#condacreate-ndemopython==3.10-
  • 2024-04-02第二期书生浦语大模型实战营第一次作业(大模型技术报告解读)
    书生·浦语大模型全链路开源体系上海人工智能实验室与商汤科技联合香港中文大学、复旦大学发布新一代大语言模型书生·浦语2.0(InternLM2)。这个大模型包含70亿和200亿两种参数规格,以及基座、对话等版本,向全社会开源并提供免费商用授权。书生·浦语2.0(英文名:InternLM2)核心理念:
  • 2024-04-01轻松分钟玩转书生·浦语大模型趣味 Demo
    一、基础作业:使用InternLM2-Chat-1.8B模型生成300字的小故事:使用猪猪模型部署并访问:二、进阶作业:完成Lagent工具调用数据分析Demo部署:熟悉huggingface下载功能,使用huggingface_hubpython包,下载InternLM2-Chat-7B的config.json文件到本地:
  • 2024-03-31书生浦语LLM全链路开源体系笔记
    书生浦语LLM全链路开源体系LLM介绍大模型LLM成为发展通用人工智能的重要途径。专用模型:针对特定人物,一个模型解决一个问题;通用大模型:一个模型应对多种任务、多种模态。书生浦语LLM发展历程及LM2InternLM->InternLM-7B开源+全链路开源工具体系->书生万卷1.0多模
  • 2024-03-30[InternLM训练营第二期笔记]1. 书生·浦语大模型全链路开源开放体系
    由于想学习一下LLM相关的知识,真好看到上海AILab举行的InternLM训练营,可以提高对于LLM的动手能力。每次课堂都要求笔记,因此我就想在我的CSDN上更新一下,希望和感兴趣的同学共同学习~本次笔记是第一节课,介绍课。课程视频:BilibiliInternLM2Technicalreport:arxiv1.
  • 2024-02-26课程6-笔记-书生浦语大模型实战营-6
    大模型评测概述评测目的:了解模型能力,指导模型迭代,监控模型风险,把握模型应用大模型评测方法客观评测:问答题、多选题、判断题等主观评测:主观题(人类评价、模型评价)OpenCompass评测平台 
  • 2024-02-26书生浦语大模型实战营-结业材料
    第一节课笔记https://www.cnblogs.com/russellwang/p/18023910第二节课笔记https://www.cnblogs.com/russellwang/p/18023922第二节课作业https://www.cnblogs.com/russellwang/p/18024031第三节课笔记https://www.cnblogs.com/russellwang/p/18033843第三节课
  • 2024-02-26课程4-笔记-书生浦语大模型实战营-4
    1、XTuner安装#如果你是在InternStudio平台,则从本地clone一个已有pytorch2.0.1的环境:/root/share/install_conda_env_internlm_base.shxtuner0.1.9#如果你是在其他平台:condacreate--namextuner0.1.9python=3.10-y#激活环境condaactivatextuner0.1.9#进入家目
  • 2024-02-26课程5-笔记-书生浦语大模型实战营-5
    一、大模型部署1、模型部署及大模型特点模型大,token不固定,结构简单2、大模型部署遇到的问题及解决方案硬件、速度、技术、方案模型部署存在的问题:1、硬件需求相对较大,特别在于显卡及内存方面。2、由于模型较大,则速度就会很慢优化方法:1、在卷积神经网络中是有:剪枝、量
  • 2024-02-26课程3-笔记-书生浦语大模型实战营-3
    对LLM进行增强的方法一般有两种:RAG(RetrievalAugmentedGeneration检索增强生成)或者finetune。其中,RAG可以简单理解为外接一个知识库,从而对某个特定的领域进行增强原始LLM的能力。相比Finetune而言,成本低,且实时性好。不需要对原模型进行修改,但是,也非常受限于原LLM的能力。RAG