- 2024-11-17书生大模型实训营第4期基础岛第四关:InternLM + LlamaIndex RAG 实践
书生大模型实训营第4期基础岛第四关:InternLM+LlamaIndexRAG实践1.什么是RAG?2.LlamaIndex+InternLMAPI实践2.1LlamaIndex的简单介绍2.2LlamaIndex+InternLMAPI实践2.2.1开发机环境配置2.2.2下载SentenceTransformer模型2.2.3下载NLTK相关资源2.3是
- 2024-11-12书生大模型实战营第四期 L1G6000 OpenCompass 评测书生大模型实践
评测书生大模型实践文章目录评测书生大模型实践前言评测API模型前言OpenCompass提供了API模式评测和本地直接评测两种方式。其中API模式评测针对那些以API服务形式部署的模型,而本地直接评测则面向那些可以获取到模型权重文件的情况。参考:https://github.
- 2024-10-04day9[探索 InternLM 模型能力边界]
BadCase1:模型服务来源https://opencompass.org.cn/arena您的输入10月中旬去北京穿什么衣服模型Ainternlm2.5-20b-chat模型BDoubao-pro-32k/240828(字节豆包)模型A输出||模型B输出|||其他补充|xxxx|BadCase2:模型服务来
- 2024-09-28day8[OpenCompass 评测 InternLM-1.8B 实践]
环境配置创建开发机和conda环境数据准备评测数据集启动评测(10%A1008GB资源)使用命令行配置参数法进行评测评测完成后,将会看到:
- 2024-09-27【基础岛·第6关】OpenCompass 评测 InternLM-1.8B 实践
目录1.概览2.环境配置2.1创建开发机和conda环境2.2安装——面向GPU的环境安装3.数据准备3.1评测数据集3.2InternLM和ceval相关的配置文件4.启动测评4.1使用命令行配置参数法进行评测4.2使用配置文件修改参数法进行评测1.概览在OpenCompass中评估一个模型通常包括
- 2024-09-23L1- 书生大模型全链路开源体系 关卡
一、总结要点-
- 2024-09-13XTuner 微调个人小助手
基础任务使用XTuner微调InternLM2-Chat-1.8B实现自己的小助手认知记录复现过程并截图。一、环境准备mkdir-p/root/InternLM/Tutorialgitclone-bcamp3https://github.com/InternLM/Tutorial/root/InternLM/Tutorial#创建虚拟环境condacreate-nxtuner012
- 2024-09-088G 显存玩转书生大模型 Demo
8G显存玩转书生大模型Demo首先第一步依旧是创建我们的开发机,选择上我们需要选择10%的开发机,镜像选择为Cuda-12.2。在输入开发机名称后,点击创建开发机。这里就不放创建的流程图了环境配置#创建环境condacreate-ndemopython=3.10-y#激活环境condaactivate
- 2024-09-06InternLM 大模型实战营笔记-7
基础岛第5关XTuner微调个人小助手认知目的:用internlm2-chat-1_8b模型,通过QLoRA的方式来微调一个自己的小助手1.微调前的模型对话进行端口映射,XXXXX是自己开发机的端口ssh-CNg-L8501:127.0.0.1:
[email protected]激活环境,运行Stream
- 2024-08-22书生·浦语大模型 进阶岛 InternVL 多模态模型部署
基础任务使用QLoRA进行微调模型,复现微调效果,并能成功讲出梗图。尝试使用LoRA,或调整xtuner的config,如LoRArank,学习率。看模型Loss会如何变化,并记录调整后效果。1.使用QLoRA进行微调模型2.微调后结果合并cdXTunerpython3xtuner/configs/internvl/v1_5/convert_to_of
- 2024-07-26OpenCompass 评测 InternLM-1.8B 实践
1.进入https://opencompass.org.cn/home,点击在线测评,创建在线测评2.选择internlm2-chat-1.8b模型,与MMLU数据集,开始测评3.查看测评结果
- 2024-07-13使用 lmdeploy 部署 internlm/internlm2_5-7b-chat
使用lmdeploy部署internlm/internlm2_5-7b-chat0.引言1.lmdeploy性能2.lmdeploy支持的模型3.快速开始0.引言LMDeploy由MMDeploy和MMRazor团队联合开发,是涵盖了LLM任务的全套轻量化、部署和服务解决方案。这个强大的工具箱提供以下核心功能:高效的
- 2024-04-08茴香豆:搭建你的 RAG 智能助理(笔记)
视频地址:https://www.bilibili.com/video/BV1QA4m1F7t4文档地址:https://github.com/InternLM/Tutorial/blob/camp2/huixiangdou/readme.md作业地址:https://github.com/InternLM/Tutorial/blob/camp2/huixiangdou/homework.md茴香豆项目地址: https://github.com/InternLM/
- 2024-04-05书生浦语第二期实战营——第二课_part2
这里写目录标题1基于`InternLM2-Chat-7B`运行`Lagent`智能体1.1介绍1.2实践准备运行1.3作业2部署`浦语·灵笔2`模型2.1介绍2.2实践(1)环境配置(2)图文写作(3)图片理解2.3作业(1)图文创作(2)视觉问答正文主要内容:运行Lagent智能体、部署浦语·灵笔2模型B
- 2024-04-05书生·浦语大模型全链路开源体系——学习笔记day2&day3--纯纯新手入门
学习链接:tutorial/helloworld/hello_world.mdatmain·InternLM/tutorial(github.com) 【精彩,照着做就能体验很多本来遥不可及的东西】笔记分享链接:https://github.com/InternLM/tutorial/discussions/37 本笔记定位是对学习链接的补充和小白发牢骚,希望大佬能愿意点评一
- 2024-04-02书生浦语第二期第二节课笔记(轻松玩转书生·浦语大模型趣味 Demo)
以下内容是在InternStudio的开发机上运行的一、部署 InternLM2-Chat-1.8B 模型进行智能对话第一步:进入开发机后,在终端中输入以下环境命令配置进行环境配置studio-conda-ointernlm-base-tdemo#与studio-conda等效的配置方案#condacreate-ndemopython==3.10-
- 2024-04-02【InternLM实战营---第二节课笔记】
一、本期课程内容概述本节课的主讲老师是角色扮演SIG小组长任宇鹏。教学内容主要包括以下四个部分:部署InternLM2-Chat-1.8B模型进行智能对话部署实战营优秀作品八戒-Chat-1.8B模型通过InternLM2-Chat-7B运行Lagent智能体Demo实践部署浦语·灵笔2模型二、学习
- 2024-03-31书生浦语LLM全链路开源体系笔记
书生浦语LLM全链路开源体系LLM介绍大模型LLM成为发展通用人工智能的重要途径。专用模型:针对特定人物,一个模型解决一个问题;通用大模型:一个模型应对多种任务、多种模态。书生浦语LLM发展历程及LM2InternLM->InternLM-7B开源+全链路开源工具体系->书生万卷1.0多模
- 2024-03-30[InternLM训练营第二期笔记]1. 书生·浦语大模型全链路开源开放体系
由于想学习一下LLM相关的知识,真好看到上海AILab举行的InternLM训练营,可以提高对于LLM的动手能力。每次课堂都要求笔记,因此我就想在我的CSDN上更新一下,希望和感兴趣的同学共同学习~本次笔记是第一节课,介绍课。课程视频:BilibiliInternLM2Technicalreport:arxiv1.
- 2024-03-20商汤xtuner微调教程(搬运工,在官方文档讲述的很好)
怎么说呢,祝大家炼丹愉快吧~
- 2024-02-13书生开源大模型训练营-第2讲笔记
1大模型及InternLM模型简介1.1什么是大模型?大模型=大语料+大算力+大模型参数大模型的优势在于其能够捕捉和理解数据中更为复杂、抽象的特征和关系。书读三遍,其义自见大模型的应用和发展也需要在性能、成本和道德等多个方面进行权衡和考量。1.2InternLM模型全链条开源I
- 2024-01-21D6-OpenCompass 大模型评测
测评结果使用OpenCompass评测InternLM2-Chat-7B模型在C-Eval数据集上的性能:pythonrun.py--datasetsceval_gen--hf-path/share/temp/model_repos/internlm-chat-7b/--tokenizer-path/share/temp/model_repos/internlm-chat-7b/--tokenizer-kwargspadding_side='left'
- 2024-01-14InternLM大模型笔记3
整个过程相比于上次来说比较顺利,除了前期pip安装缺少有关库导致报错报错,其他都没有什么问题配置NLTK过程遇到加载很慢,最后发现可能是算力太少导致服务器响应太慢导致,经过重装之后,解决了问题最后配置成功
- 2024-01-13第二讲
大模型及InternLM介绍什么是大模型?人工智能领域中参数数量巨大,拥有庞大计算能力和参数规模的模型。特点:大量数据进行训练数十亿甚至千亿参数在各种任务重展现出惊人的性能SSH连接开发机本地机器上打开终端生成SSH密钥对ssh-keygen在InternStudio配置公钥:cat命令
- 2024-01-09Internlm-chat-7b大模型笔记1
首先第一次做作业只对着文档来操作,但是发现出现了很多错误因为每段代码都有先后顺序,而且一些是终端一些是Python的代码然后遇到第二个困难是配置ssh的时候因为算力没有了重新进入开发机,但是密钥发生改变,出现以下报错@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@ WARNIN