• 2024-06-24[本科项目实训] P-Tuning v2 训练记录
    训练脚本PRE_SEQ_LEN=64LR=2e-2CUDA_VISIBLE_DEVICES=0python3main.py\--do_train\--train_filetrainVX.json\--validation_filedevVX.json\--prompt_columncontent\--response_columnsummary\--overwrite_cache\--mo
  • 2024-06-23构建本地智能知识问答系统:基于Langchain和ChatGLM的简单实践
    在数字化时代,智能知识问答系统成为了提升企业效率和数据安全性的关键工具。本文将介绍如何基于Langchain和ChatGLM构建一个本地化、支持中文的智能知识问答系统。该系统不仅能够实现完全本地化推理,而且对开源模型友好,可满足企业对数据隐私和私域化部署的需求。项目概览本项目利
  • 2024-06-17开源复刻apple 数学笔记;纯C++实现了ChatGLM系列模型;腾讯混元文生图模型发布新版本并开源训练代码
    ✨1:AIMathNotesAIMathNotes是一个交互式绘图应用,可绘制并计算数学方程。AIMathNotes受到Apple在WWDC2024上的“MathNotes”演启发,开发的一个互动式绘图应用程序,用户可以在画布上绘制数学方程。一旦方程被绘制完成,应用程序将使用多模态LLM(LargeLanguageM
  • 2024-06-15在windows笔记本电脑部署GLM4大模型
    (笔记本电脑:intel处理器i9-13900HX、64G内存、NVIDIARTX4080(12G)、操作系统windows11家庭版)一、下载anaconda31.清华镜像源下载anaconda3。下载地址:Indexof/anaconda/archive/|清华大学开源软件镜像站|TsinghuaOpenSourceMirror在网页上找到Anaconda3-2024.02-1-
  • 2024-06-14一文读懂多模态大模型的LLM主干(1):ChatGLM系列
    〔探索AI的无限可能,微信关注“AIGCmagic”公众号,让AIGC科技点亮生活〕本文作者:AIGCmagic社区  刘一手前言AI多模态大模型发展至今,每年都有非常优秀的工作产出,按照当前模型设计思路,多模态大模型的架构主要包括以下几个部分:模态编码器(ModalityEncoder,ME):负责将不同
  • 2024-06-10AttributeError: ‘ChatGLMModel‘ object has no attribute ‘prefix_encoder‘
    AttributeError:‘ChatGLMModel‘objecthasnoattribute‘prefix_encoder‘:全面解析问题概述当您使用ChatGLM模型或相关库时遇到AttributeError:‘ChatGLMModel‘objecthasnoattribute‘prefix_encoder‘错误时,这意味着ChatGLMModel类中不存在prefix_encod
  • 2024-05-25ChatGLM 智能体 搭建属于自己的AI知识库
    前言最近在看一本书《在线》,将所有数据都需要在线,才有生命力,那么我们的知识库也是。我们现在就可以用先进的大预言模型搭建属于自己的在线AI知识库,他就是ChatGLM智谱清言智能体。它可以将自己的知识库与ChatGLM结合,成为某一方面的专业知识问答系统。当然,市面上有很多类似
  • 2024-05-10ERROR: CUDA out of memory. Tried to allocate 254.00 MiB.
    正在将samples/llm/大模型技术栈-算法与原理.md添加到向量库,共包含30条文档Batches:0%||0/1[00:00<?,?it/s]2024-05-1010:21:36,963-embeddings_api.py[li
  • 2024-05-07ChatGLM-6B本地部署和P-Tuning微调尝试
    to2024/04/22部署环境OS:Windows10,WSL2(Ubuntu20.04)CPU:Intel(R)Core(TM)i5-12490FGPU:GeForceRTX4070Ti部署过程部署主要参考$[2]$,其中也遇到了一定的问题,记录如下:模型下载模型需要使用GitLFS工具进行下载,由于之前在Windows环境下已经下载过模型文件
  • 2024-04-07最近在研究无线遥控器相关的东西
    1、关于433MHZ、315MHZ的相关的模块发送与接收是单独的调制芯片。这块某宝上有很多,芯片也有很多,一般是8脚的芯片。发射芯片的话,有一个脚是天线接口,一个脚是编码芯片的序列输出的高低电平。发送芯片把这些高低电平调制后,发射出去。接收芯片把信号接收到之后,它把结果(高低电平)输
  • 2024-03-28AppFlow上新——智谱ChatGLM轻松接入聊天
        智谱AI开放平台提供一系列具有不同功能和定价的大模型,包括通用大模型、超拟人大模型、图像大模型、向量大模型等,并且支持使用您的私有数据对模型进行微调。其中ChatGLM系列模型在国内也享有盛名,现在AppFlow支持了ChatGLM系列模型的接入,可以轻松实现GLM接入钉钉聊天中。
  • 2024-03-17本地部署 Langchain-Chatchat & ChatGLM
     一、模型&环境介绍#1.ChatGLM#github地址:https://github.com/THUDM模型地址:https://huggingface.co/THUDM2.m3e#模型地址:https://huggingface.co/moka-ai/m3e-base/3.text2vec#模型地址:https://huggingface.co/GanymedeNil/text2vec-large-chinese/4.Lang
  • 2024-03-16聊聊ChatGLM-6B医疗数据微调
    转载请注明出处:https://www.cnblogs.com/zhiyong-ITNote/参考了多个医疗大模型,如扁鹊、灵心等,重新思考了下微调的方案以及数据集的格式;基于ChatGLM/其它LLM整合多种微调方法的非官方实现的框架,审视其数据集格式,以及调试效果,进行微调。最终基于liucongg/ChatGLM-Finetuning开
  • 2024-03-14Langchain-ChatGLM源码解读(一)-文档数据上传
    一、简介Langchain-ChatGLM 相信大家都不陌生,近几周计划出一个源码解读,先解锁langchain的一些基础用法。文档问答过程大概分为以下5部分,在Langchain中都有体现。上传解析文档文档向量化、存储文档召回query向量化文档问答今天主要讲langchain在上传解析文档时是怎么实
  • 2024-03-13线上跑chatGLM实践
    预先准备本笔记为参加DataWhale的线上学习——进行GLM、SD部署在完成驱动云平台注册后,免费获得168算力金,使用免费算力金进行ai平台部署在平台内进行部署https://platform.virtaicloud.com/项目服务器配置创建项目后,选择添加镜像在此选择PyTorch2.0.1Conda3.9的镜像通过
  • 2024-03-13万字带你了解ChatGLM
    本文分享自华为云社区《【云驻共创】华为云之昇思MindSpore大模型专题(第二期)-第一课:ChatGLM》,作者:愚公搬代码。前言1.昇思MindSpore昇思MindSpore是华为公司推出的一款全场景AI计算框架。它提供了自动微分、分布式训练和推理、模型部署等功能,支持多种硬件平台,包括CPU、GPU和As
  • 2024-01-24chatglm论文
    http://xxx.itp.ac.cn/pdf/2103.10360.pdf摘要:使用一个autoencoder和autoagressive的模型达到更好效果.定义输入文字:x=[\(x_1,...,x_n\)]textspans:{\(s_1,...s_m\)}\(s_i\):一段连续的tokens每一个s用一个[MASK]来替代.所以他一个符号盖住了一片token.随机交换spa
  • 2024-01-14在笔记本电脑上跑清华chatglm大语言模型
    环境:windows10以上系统,安装Linux子系统下载这个文件,双击,安装:https://wslstorestorage.blob.core.windows.net/wslblob/wsl_update_x64.msisudosed-i's/deb.debian.org/mirrors.ustc.edu.cn/g'/etc/apt/sources.listsudodpkg-reconfigurelocalessudoaptupdatesudoa
  • 2024-01-11聊聊ChatGLM中P-tuning v2的应用
    论文PDF地址:https://arxiv.org/pdf/2110.07602.pdf转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote/P-Tuningv2摘录自第三部分桔色块指代可训练的promptembedding;蓝色块是由固定(冻结)的预训练语言模型存储或计算的embedding。DeepPromptTuningcontinuou
  • 2024-01-04ChatGLM-6B应用
    ChatGLM-6B是一个开源的、支持中英双语的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。
  • 2023-12-14ChatGLM2-6B模型的微调
    概述GLM、ChatGLM的相关基础知识说明:GLM模型底层还是基于Transformer,因此其设计、优化都是围绕Transformer的各个组件的。从注意力层的掩码、位置编码等方面优化与设计。ChatGLM3/ChatGLM2的源码中,比如finetune、trainer等代码,其实是copy自HuggingFace,而且其使用流程与调用机
  • 2023-12-07ChatGLM 模型部署
    ChatGLM模型部署模型地址:huggingface:https://huggingface.co/THUDM/chatglm3-6bmodelscope:https://modelscope.cn/models/ZhipuAI/chatglm3-6b/summary搭建环境#下载代码$gitclonehttps://github.com/THUDM/ChatGLM3$cdChatGLM3#创建环境$condacreate-npy
  • 2023-12-02使用Langchain与ChatGLM实现本地知识库(二)
      大语言模型也只是将用户提供的大规模数据集训练而来,也并非万能的什么都知道,特别是一些小众知识、内部数据或私密的个人数据等,此时ChatGLM3肯定会胡乱回答就是ChatGPT4也不一定能给出满意回答;不少公司、个人都有自己的知识库或日志等此时如有可将这些数据以某种方式挂在大模型
  • 2023-11-28使用LangChain与ChatGLM实现本地知识库(一)
      本篇主要内容为介绍ChatGLM3的安装使用,后续才会涉及到使用LangChain实现本地知识库的内容;  ChatGLM为智谱与清华大学开源的一个大语言模型,支持多轮对话、内容创作等,ChatGLM3-6B为ChatGLM3系列中门槛相对较低的一个,本地部署提供兼容OpenAI的API;  LangChain用于快速开发基
  • 2023-11-28没闲着系列 05
    昨晚一直在下载Llama发行版ChatGLM,下到50%应该是FQ流量没有了,先放一放了。本来的打算是将issue、task的问题推给ChatGLM进行解答,看来还是先执行爬虫任务了。这会儿想画个图表示,从task、issue的问题去网上,尤其可能是stackoverflow、某dn,还有cnb去抓取相同问题。不加上这个,对git的