• 2024-04-08茴香豆:搭建你的 RAG 智能助理(笔记)
    视频地址:https://www.bilibili.com/video/BV1QA4m1F7t4文档地址:https://github.com/InternLM/Tutorial/blob/camp2/huixiangdou/readme.md作业地址:https://github.com/InternLM/Tutorial/blob/camp2/huixiangdou/homework.md茴香豆项目地址:  https://github.com/InternLM/
  • 2024-04-05书生浦语第二期实战营——第二课_part2
    这里写目录标题1基于`InternLM2-Chat-7B`运行`Lagent`智能体1.1介绍1.2实践准备运行1.3作业2部署`浦语·灵笔2`模型2.1介绍2.2实践(1)环境配置(2)图文写作(3)图片理解2.3作业(1)图文创作(2)视觉问答正文主要内容:运行Lagent智能体、部署浦语·灵笔2模型B
  • 2024-04-05书生·浦语大模型全链路开源体系——学习笔记day2&day3--纯纯新手入门
    学习链接:tutorial/helloworld/hello_world.mdatmain·InternLM/tutorial(github.com) 【精彩,照着做就能体验很多本来遥不可及的东西】笔记分享链接:https://github.com/InternLM/tutorial/discussions/37 本笔记定位是对学习链接的补充和小白发牢骚,希望大佬能愿意点评一
  • 2024-04-02书生浦语第二期第二节课笔记(轻松玩转书生·浦语大模型趣味 Demo)
    以下内容是在InternStudio的开发机上运行的一、部署 InternLM2-Chat-1.8B 模型进行智能对话第一步:进入开发机后,在终端中输入以下环境命令配置进行环境配置studio-conda-ointernlm-base-tdemo#与studio-conda等效的配置方案#condacreate-ndemopython==3.10-
  • 2024-04-02【InternLM实战营---第二节课笔记】
    一、本期课程内容概述本节课的主讲老师是角色扮演SIG小组长任宇鹏。教学内容主要包括以下四个部分:部署InternLM2-Chat-1.8B模型进行智能对话部署实战营优秀作品八戒-Chat-1.8B模型通过InternLM2-Chat-7B运行Lagent智能体Demo实践部署浦语·灵笔2模型二、学习
  • 2024-03-31书生浦语LLM全链路开源体系笔记
    书生浦语LLM全链路开源体系LLM介绍大模型LLM成为发展通用人工智能的重要途径。专用模型:针对特定人物,一个模型解决一个问题;通用大模型:一个模型应对多种任务、多种模态。书生浦语LLM发展历程及LM2InternLM->InternLM-7B开源+全链路开源工具体系->书生万卷1.0多模
  • 2024-03-30[InternLM训练营第二期笔记]1. 书生·浦语大模型全链路开源开放体系
    由于想学习一下LLM相关的知识,真好看到上海AILab举行的InternLM训练营,可以提高对于LLM的动手能力。每次课堂都要求笔记,因此我就想在我的CSDN上更新一下,希望和感兴趣的同学共同学习~本次笔记是第一节课,介绍课。课程视频:BilibiliInternLM2Technicalreport:arxiv1.
  • 2024-03-20商汤xtuner微调教程(搬运工,在官方文档讲述的很好)
    怎么说呢,祝大家炼丹愉快吧~
  • 2024-02-13书生开源大模型训练营-第2讲笔记
    1大模型及InternLM模型简介1.1什么是大模型?大模型=大语料+大算力+大模型参数大模型的优势在于其能够捕捉和理解数据中更为复杂、抽象的特征和关系。书读三遍,其义自见大模型的应用和发展也需要在性能、成本和道德等多个方面进行权衡和考量。1.2InternLM模型全链条开源I
  • 2024-01-21D6-OpenCompass 大模型评测
    测评结果使用OpenCompass评测InternLM2-Chat-7B模型在C-Eval数据集上的性能:pythonrun.py--datasetsceval_gen--hf-path/share/temp/model_repos/internlm-chat-7b/--tokenizer-path/share/temp/model_repos/internlm-chat-7b/--tokenizer-kwargspadding_side='left'
  • 2024-01-14InternLM大模型笔记3
    整个过程相比于上次来说比较顺利,除了前期pip安装缺少有关库导致报错报错,其他都没有什么问题配置NLTK过程遇到加载很慢,最后发现可能是算力太少导致服务器响应太慢导致,经过重装之后,解决了问题最后配置成功
  • 2024-01-13第二讲
    大模型及InternLM介绍什么是大模型?人工智能领域中参数数量巨大,拥有庞大计算能力和参数规模的模型。特点:大量数据进行训练数十亿甚至千亿参数在各种任务重展现出惊人的性能SSH连接开发机本地机器上打开终端生成SSH密钥对ssh-keygen在InternStudio配置公钥:cat命令
  • 2024-01-09Internlm-chat-7b大模型笔记1
    首先第一次做作业只对着文档来操作,但是发现出现了很多错误因为每段代码都有先后顺序,而且一些是终端一些是Python的代码然后遇到第二个困难是配置ssh的时候因为算力没有了重新进入开发机,但是密钥发生改变,出现以下报错@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@    WARNIN
  • 2024-01-07InternLM智能创作Work及总结
    基础:使用InternLM-Chat-7B模型生成300字的小故事。详情可以见我的完成撰写文章:https://blog.51cto.com/morcake/9105322上图为进入的开始界面,下面即可进行问答:熟悉huggingface下载功能,使用 huggingface_hub python包,下载 InternLM-20B 的config.json文件到本地(需截图
  • 2024-01-05D2-浦语·灵笔图文理解创作 Demo
    这里我使用InternStudio中的A100(1/4)*2机器和internlm-xcomposer-7b 模型部署一个图文理解创作Demo。一、环境准备选择A100(1/4)*2的配置:我的开发机列表:打开刚刚租用服务器的进入开发机,并在终端输入 bash 命令,进入 conda 环境,接下来就是安装依赖。进入 conda 环境
  • 2024-01-04D2-InternLM-Chat-7B 智能对话 Demo
    使用InternStudio中的A100(1/4)机器和InternLM-Chat-7B模型部署一个智能对话Demo。一、环境准备进入 conda 环境:bash#请每次使用jupyterlab打开终端时务必先执行bash命令进入bash中使用以下命令从本地克隆一个已有的 pytorch2.0.1 的环境:condacreate--nameinte