glm
  • 2024-11-10在OpenGL中实现视角切换插值过渡动画
    在OpenGL中实现视角切换插值过渡动画可以通过以下步骤来完成:一、定义视角结构体首先,需要定义一个结构体来表示视角相关的信息,通常包括观察位置(EyePosition)、观察目标点(LookAtPoint)和上方向向量(UpVector)。例如:structCamera{glm::vec3eye;glm::vec3center;
  • 2024-11-09用GLSL 和 GLM 实现OpenGL trackball
    以下是一个使用GLSL(OpenGLShadingLanguage)和GLM(OpenGLMathematics)库来实现OpenGLtrackball功能的示例。这个示例将展示如何通过鼠标操作来旋转场景中的物体,就像在操作一个虚拟的轨迹球一样。1.准备工作包含必要的头文件和库:需要包含GLFW头文件用于创建窗口和处理事件,GLA
  • 2024-11-08开源模型应用落地-glm模型小试-glm-4-9b-chat-tools使用(五)
    一、前言  GLM-4是智谱AI团队于2024年1月16日发布的基座大模型,旨在自动理解和规划用户的复杂指令,并能调用网页浏览器。其功能包括数据分析、图表创建、PPT生成等,支持128K的上下文窗口,使其在长文本处理和精度召回方面表现优异,且在中文对齐能力上超过GPT-4。与之前的GLM系列
  • 2024-10-28GLM - 4 - Plus:智谱 AI 最新推出的大型基座模型
    目录引言一、GLM-4-Plus简介二、GLM-4-Plus的技术优势1.卓越的语言能力2.多模态交互能力3.强大的推理能力三、GLM-4-Plus的功能特点1.丰富的知识储备2.准确的语言理解3.代码辅助能力四、GLM-4-Plus的应用场景1.智能客服2.内容创作3.教育辅助4.智能办公
  • 2024-10-28重采样方法(交叉验证法)——基于glm与LOOCV法(Weekly数据集分析)
    Chapter5:Exercise7读取数据集Weekly数据集通常指的是在统计、数据分析或机器学习领域中,一个以周为单位进行记录的数据集合。以下是对Weekly数据集的一个详细介绍:一、数据来源与背景Weekly数据集可能来源于多个领域,如金融、经济、市场营销等,这些领域通常需要按周跟踪
  • 2024-10-28Error in eval(family$initialize): y值必需满足0 <= y <= 1解决
    今天在使用R语言对Weekly进行交叉验证时,发生如下报错:错误于eval(family$initialize):y值必需满足0<=y<=1错误代码为:Weekly<-read.csv("Weekly.csv")set.seed(1)attach(Weekly)glm.fit1=glm(Direction~Lag1+Lag2,data=Weekly,family=binomial)summary(glm.fit1)
  • 2024-10-22GLM-4v-9B-源码解析-四-
    GLM-4v-9B源码解析(四)GLM-4-9BChatdialoguemodelfine-tuningInthisdemo,youwillexperiencehowtofine-tunetheGLM-4-9B-Chatopensourcemodel(visualunderstandingmodelisnotsupported).Pleasestrictlyfollowthestepsinthedocumenttoavoidunne
  • 2024-10-18OpenGL模型变换平移、缩放、旋转注意事项
    一、概述在OpenGL中,想要对物体(模型)进行操作,如:平移、缩放、旋转。其顺序不能错,不同的顺序会给出不同的结果网上的博客大家看过后要慎重使用,好多都是错误的,在实际项目中使用前最好先写demo进行验证,不然一旦整合到项目中,排错成本将会非常高。三者的顺序是:理
  • 2024-10-13在启智AI平台实践ChatGLM4-9B聊天机器人@MindSpore
    前段时间在昇思训练营发现一个好东西,就是昇思AI实验室:昇思大模型平台在官方提供的jupyterAI编程实践样例中,发现了这个项目:ChatGLM4-9B实践样例GLM-4-9B是智谱AI推出的最新一代预训练模型GLM-4系列中的开源版本。在语义、数学、推理、代码和知识等多方面的数据集测评中,
  • 2024-09-25SimpleAIAgent:使用免费的glm-4-flash即可开始构建简单的AI Agent应用FI
    合集-C#(80)1.使用C#将几个Excel文件合并去重分类2023-11-152.C#使用SqlSugar操作MySQL数据库实现简单的增删改查2023-11-163.C#中的类和继承2023-11-174.C#中的virtual和override关键字2023-11-175.C#中的属性2023-11-206.C#winform中使用SQLite数据库2023-11-237.C#简化工作之
  • 2024-09-25SimpleAIAgent:使用免费的glm-4-flash即可开始构建简单的AI Agent应用
    SimpleAIAgent是基于C#SemanticKernel与WPF构建的一款AIAgent探索应用。主要用于使用国产大语言模型或开源大语言模型构建AIAgent应用的探索学习,希望能够帮助到感兴趣的朋友。接下来我想分享一下我的AIAgent应用实践。翻译文本并将文本存入文件第一个例子是翻译文本,并将
  • 2024-09-19Unity坐标系求向量的模长
    Unity坐标系求向量的模长publicfloat sqrMagnitude;返回该向量的平方长度。(只读)向量 v 的大小以Mathf.Sqrt(Vector3.Dot(v,v))方式进行计算。但是,Sqrt计算相当复杂,执行时间比普通算术运算要长。计算平方数代替使用 magnitude 属性要快得多-计算基本相同,只是
  • 2024-09-05探索魔乐社区:GLM-4V-9B模型微调之旅
    人工智能的浪潮中,魔乐社区以其丰富的资源和开放的环境,逐渐成为了开发者们的新宠。今天,让我们一起走进魔乐社区,通过GLM-4V-9B模型微调的最佳实践,体验这个平台的独特魅力。多模态的新星:GLM-4V-9BGLM-4V-9B是智谱AI推出的最新一代预训练模型GLM-4系列中的开源多模态版本。。它不仅
  • 2024-09-04【大模型】使用 Xinference 部署本地模型,从GPU服务器到本地知识库搭建Dify【LLM大语言模型(glm-4-9b-chat)、Rerank 模型、Embedding(向量)模型】
    基本介绍基础信息GPU服务器获取基础安装基础信息安装显卡驱动配置显卡检查下载禁用nouveau系统自带驱动显卡驱动安装安装nvidia-docker下载配置验证Xinference部署docker部署官方文档模型下载glm-4-9b-chatEmbedding(向量)模型Rerank模型模型部署Embedding(向量)模型
  • 2024-08-28零成本、无编程,GLM-4-Flash免费API发布,算法工程师嗨翻了!!!
    作为一名资深NLP算法工程师,大模型在日常工作中扮演了非常重要的角色,辅助处理很多工作。但是,大模型的使用非常麻烦:主流大模型通过网页对话方式交互,手工输入Promt,通过对话的方式获取结果,长度有限且非常不方便。资源有限,市面上很少大模型API资源可供使用,并且都是收费的。今
  • 2024-08-27GLM-4-Flash 大模型API免费了,手把手构建“儿童绘本”应用实战(附源码)
    老牛同学刚刷到了一条劲爆的消息,GLM-4-Flash大模型推理API免费了:https://bigmodel.cn/pricing老牛同学一直觉得上次阿里云百炼平台为期1个月免费额度的“羊毛”已经够大了(太卷了,阿里云免费1个月大模型算力额度,玩转Llama3.1/Qwen2等训练推理),但经过老牛同学在智谱AI官网
  • 2024-08-27【大模型理论篇】通用大模型架构分类及技术统一化
    1.背景           国内的“百模大战”以及开源大模型的各类评测榜单令人眼花缭乱,极易让人陷入迷茫。面对如此众多的大模型,我们该如何审视和选择呢?本文将从大模型架构的角度,对常见的开源大模型架构进行汇总与分析。资料来源于公开的学术论文、技术报告、企业官
  • 2024-08-16GLM4与ChatGLM-6B
    GLM4与ChatGLM-6B在多个方面存在区别,以下是对两者差异的详细分析:一、模型规模与参数GLM4:GLM4系列模型,如GLM-4-9B,具有更大的模型规模。以GLM-4-9B为例,其参数量达到90亿,这相比一些较小的模型提供了更强的处理能力和更高的性能。ChatGLM-6B:ChatGLM-6B的参数量相对较少,为62亿。
  • 2024-08-11glm_oneflow基于Oneflow框架的glm-10b-chinese自然语言处理
    GLM论文GLM:GeneralLanguageModelPretrainingwithAutoregressiveBlankInfillinghttps://arxiv.org/abs/2103.10360模型结构2017年,Google提出了Transformer架构,随后BERT、GPT、T5等预训练模型不断涌现,并在各项任务中都不断刷新SOTA纪录。2022年,清
  • 2024-07-28智谱GLM Api接口适配langchain OpenAI llamaindex的openAI接口
    动机OpenAI充值比较麻烦,且访问不是那么方便。因此想用国内的api的去调试和测试一个任务。但是很多教程都是以openAI的接口为例子的,因此学习起来就不那么方便。本文参考了hugggingface中迁移OpenAI的博客,chatGLMcookbook关于接口的迁移文档,llamindexOpenAIlike的示例,终于调
  • 2024-07-18【大模型私有化部署:手把手教你部署并使用清华智谱GLM大模型】
    部署一个自己的大模型,没事的时候玩两下,这可能是很多技术同学想做但又迟迟没下手的事情,没下手的原因很可能是成本太高,近万元的RTX3090显卡,想想都肉疼,又或者官方的部署说明过于简单,安装的时候总是遇到各种奇奇怪怪的问题,难以解决。本文就来分享下我的安装部署经验,包括本地和租
  • 2024-07-17ChatGLM
    ChatGLM:AFamilyofLargeLanguageModelsfromGLM-130BtoGLM-4AllTools(2024.7.16)Code:https://github.com/THUDMandhttps://huggingface.co/THUDM以下是模型架构的主要改进点:无偏置(NoBiasExceptQKV):为了提高训练速度,除了Query、Key、Value(QKV)的偏置外,模型中去
  • 2024-07-16GLM-4-9B-Chat WebDemo 部署报错:ValueError: too many values to unpack
    用开源大模型食用指南self-llm项目的GLM-4-9B-ChatWebDemo部署文档部署时遇到如下错误:ValueError:toomanyvaluestounpack(expected2)Traceback:File"/root/miniconda3/lib/python3.10/site-packages/streamlit/runtime/scriptrunner/script_runner.py",line552,
  • 2024-07-10从零学习大模型——使用GLM-4-9B-Chat + BGE-M3 + langchain + chroma建立的本地RAG应用(二)——将GLM-4-9B-Chat接入langchain
    第一篇介绍了如何配置最基本的环境并下载了GLM-4-9B-Chat到本地,接下来我们试着将GLM-4-9B-Chat接入LangChain。LangChain 是一个基于大型语言模型(LLM)开发应用程序的框架。LangChain简化了LLM应用程序生命周期的每个阶段:开发:使用LangChain的开源构建模块和组件构建应用程序
  • 2024-07-08如何理解李彦宏说的“不要卷模型,要卷应用”
    如何理解李彦宏说的“不要卷模型,要卷应用”7月4日,2024世界人工智能大会暨人工智能全球治理高级别会议全体会议在上海世博中心举办。在产业发展主论坛上,百度创始人、董事长兼首席执行官李彦宏呼吁:“大家不要卷模型,要卷应用!”李彦宏认为,AI技术已经从辨别式转向了生成式,但技术本