• 2024-11-15【每天学点AI】前向传播、损失函数、反向传播
    在深度学习的领域中,前向传播、反向传播和损失函数是构建和训练神经网络模型的三个核心概念。今天,小编将通过一个简单的实例,解释这三个概念,并展示它们的作用。前向传播:神经网络的“思考”过程前向传播是神经网络计算的基础步骤,它涉及将输入数据逐层传递,通过神经网络的权重和激活
  • 2024-11-11Transformers显存优化策略
    (原创)Transformers显存优化简易策略(本教程目标:4G显存也能跑BERT-Large)
  • 2024-10-27神经网络学习记录(一):前向传播过程与损失计算
    本文记录了我在学习BP神经网络过程中的一些认识。在逐步学习的过程中,难免会对某些内容产生理解偏差,如有不当之处,恳请指正,感谢。前向传播过程(Forward_Propagation)前向传播(ForwardPropagation)是神经网络的核心计算过程,它的主要目的是计算神经网络的输出,即给定输入后经
  • 2024-10-09AI 学习方法与算法现状
    在人工智能(AI)的漫长历史中,我们见证了从早期的规则驱动系统到现代的机器学习模型的转变。AI的学习方法是其进步的核心,而算法现状则反映了当前技术的高度和未来的发展方向。Ⅰ.AI学习方法AI的工作原理基于深度神经网络,这是一种模仿人脑处理信息方式的计算模型。在设计AI系统时
  • 2024-09-27前向声明Forward Declaration
    在C++中,前向声明(ForwardDeclaration)是一种声明类型(如类、结构体、联合等)而不提供完整定义的方法。前向声明允许你在使用某些类型时避免包含其完整定义,从而减少编译时间、避免循环依赖,并改善代码的可维护性。一、前向声明的基本语法前向声明的基本语法如下:classMyClass;
  • 2024-09-26前向传播和后向传播是啥玩意儿
    前向传播(ForwardPropagation)和后向传播(BackwardPropagation)是神经网络训练的两个关键步骤,它们共同作用来调整网络中的权重,从而最小化误差。让我们分开解释这两个概念:1.前向传播(ForwardPropagation)前向传播是神经网络从输入到输出的计算过程。在这个过程中,输入数据逐层
  • 2024-09-10因为不懂推测解码,被面试官鄙视了...
    我是丁师兄,专注于智能驾驶方向大模型落地,公众号:丁师兄大模型。大模型1v1学习,已帮助多名同学上岸国内外大厂前两天有个学员抱怨后天就要面试了,心里难免紧张。尽管他做了很多准备,但他还是担心面试官会问到像“大模型中的推测解码”这种复杂的技术问题。为了不在关键时刻掉链
  • 2024-08-30深入理解前向传播、反向传播和计算图
    1.什么是前向传播?前向传播(ForwardPropagation)是神经网络的推理过程。它将输入数据逐层传递,通过每一层的神经元计算,最终生成输出。前向传播的公式假设我们有一个简单的三层神经网络(输入层、一个隐藏层和输出层),网络的每一层计算如下:
  • 2024-08-18量化策略开发步骤系列(5)前向测试和统计意义
    量化策略开发步骤系列(5)前向测试和统计意义前向测试统计意义随机化交易测试重写过去结论这是量化交易系列文章的第二系列——量化策略开发步骤,第一系列请参考专栏:量化交易系统。很多朋友反馈最近的文章代码太多,看不懂。这一部分将实现零代码分享,尽可能简单地
  • 2024-07-20神经网络基本代码分析
    导入库文件importtorchfromtorchimportnnfromtorch.utils.dataimportDataLoaderfromtorchvisionimportdatasetsfromtorchvision.transformsimportToTensor创建集合FashionMNIST为一个服装数据集,训练集和测试集均为该数据集中的一部分图像training_data
  • 2024-07-17前向反馈神经网络模型训练过程
    https://www.mrdbourke.com/the-unofficial-pytorch-optimization-loop-song/Unofficialpytorchoptimizationsong:ForanepochinarangeCallmodeldottrainDotheforwardpassCalculatethelossOptimizerzerogradLossssssbackwardOptimizerstepstepst
  • 2024-07-07Diffusion Model
    介绍DiddusionModel是2020年出现的一种新模型,论文中将其用于生成任务中。与GAN模型不同的是,他不需要使用判别器来进行训练。其训练过程与通常的生成器有很大的不同,他并不是直接训练一个生产模型,而是训练一个正态分布,并使用其对原始噪声图片去噪来生成图片。至于如何为什么使用
  • 2024-06-15时序预测 | Matlab基于CFBP级联前向BP神经网络时序预测
    在Matlab中使用CFBP(CascadeForward-BackwardPropagation)级联前向BP(Backpropagation)神经网络进行时序预测可以按照以下步骤进行:准备数据:首先,准备你的时序数据。确保数据已经进行了预处理,例如归一化或标准化,以便神经网络能够更好地进行学习和预测。构建级联前向BP神经网络
  • 2024-05-28CUDA教学(1):前向转播
    一个简单的CUDA实践。用于实现前向传播。一、算法设计(一)问题背景描述和算法设计?问题描述:计算某个点f的特征值的“插值”结果。以二维为例,为了“插值”得到f的特征值,需要用到:各顶点的特征值\(f_i\)和f距离该顶点对面的两条边的距离的乘积之和。如果扩展到三维,那么需
  • 2024-05-08Lora训练的参数和性能
    主要为了测试模型增加Lora模块后,参数量和训练速度的变化情况。结论:正常情况下,增加Lora模块是会增加参数量的,因此前向传播和反向传播的时间也会增加。但是,在大语言模型训练的情况下,因为基础模型本身参数量非常大,Lora模块增加的参数量相对非常小。并且,基础模型不参与梯度更新,可以做
  • 2024-04-17实现一个前向渲染的Phong模型(一)
    标准Phong模型实现Shader"Unlit/PhongJian"{Properties{_MainTex("Texture",2D)="white"{}_Shininess("Shininess",Range(0.01,100))=1.0//高光亮度对比度_SpecIntensity("SpecInten
  • 2024-04-12前向渲染和延迟渲染
    光照计算总览光照计算RenderPath渲染路径它决定了一个shader是以怎样的一种方式渲染灯光Unity前向渲染前向渲染预览Camera组件设置RenderingPath为Forward,其默认的渲染方式也是Forward目前场景中有1个平行光,和5个点光灯,1个球体,一个地面,我们发现每个灯光都对每个物体渲
  • 2024-03-26深度学习批次(batch)、迭代(iteration)、周期(epoch)、前向传播(forward propagation)、反向传播(backward propagation)概念解释
    虽然现在应该是已经熟练掌握这些基础概念的时候,但是我是鱼的记忆,上一秒的事情,下一秒就忘了,除非是重要的人的重要的事情,呜呜呜呜,我这个破脑子.还是写一下吧,直接GPT出来的(人类之光,欢呼~).以前写过一次,贴一下链接:深度学习模型训练的过程理解(训练集、验证集、测试集、batch、itera
  • 2024-03-24大白话扩散模型(无公式版)
    背景传统的图像生成模型有GAN,VAE等,但是存在模式坍缩,即生成图片缺乏多样性,这是因为模型本身结构导致的。而扩散模型拥有训练稳定,保持图像多样性等特点,逐渐成为现在AIGC领域的主流。扩散模型正如其名,该方法是从自然界的扩散现象(热力学第二定律、熵增)得到启发,认为任意我们想要的图
  • 2024-02-28通过前向声明解决C++中两个头文件互相引用的问题
    在C++中,当两个头文件互相引用时,可以通过前向声明来避免直接的#include依赖,从而解决循环依赖的问题。前向声明是在一个头文件中声明另一个头文件中的类或类型的名称,而不包括其具体的实现细节。这样,每个头文件只依赖对方的声明,而不需要依赖对方的定义,从而打破了循环依赖。以下是如
  • 2024-02-28关于“非法的前向引用(illegal forward reference)”的探究
    1.问题:有如下代码:publicclassTest{static{i=0;//给变量赋值可以正常编译通过System.out.print(i);//编译器会提示“非法向前引用”(illegalforwardreference)}staticinti=1;}这段代码来自于《深入理解Java虚拟机:JVM高级特性
  • 2024-02-28前向渲染和延迟渲染
    前向渲染先计算光照再裁剪。前向渲染是现在最基础,也是最多引擎使用的标准。前向渲染的流程是给定一个几何体,引擎对其进行从顶点到像素着色器的一系列计算,然后输出到最终的图像缓冲区。场景中有多个几何体时,引擎就是对其挨个进行渲染,完成一个再继续下一个。前向渲染的问题前向
  • 2024-02-21神经网络基础
    (个人学习所用,内容来源于网络,侵权删)1.感知机感知机由Rosenblatt在1957年提出,是神经网络的基础,该思想受生物学启发(参照下图),在其看来,人的大脑可以看作一个生物的神经网络,其最小的单元是神经元。人的神经网络由这样的一些神经元组成,它接受一些信号,这些信号可能是眼睛看到的光学
  • 2024-01-15机器学习-概率图模型系列-隐含马尔科夫-观测序列的概率计算-35
    目录1.暴力求解法2.前向算法求HMM观测序列的概率3.从后往前推后向算法1.暴力求解法任意一条路径都有可能得到需要的观测结果:如果我们的隐藏状态数N非常多的那就麻烦了,此时我们预测状态有NT种组合,算法的时间复杂度是O(TNT)阶的2.前向算法求HMM观测序列的概率在前向算
  • 2023-11-30神经网络入门篇:详解深层网络中的前向传播(Forward propagation in a Deep Network)
    深层网络中的前向传播先说对其中一个训练样本\(x\)如何应用前向传播,之后讨论向量化的版本。第一层需要计算\({{z}^{[1]}}={{w}^{[1]}}x+{{b}^{[1]}}\),\({{a}^{[1]}}={{g}^{[1]}}{({z}^{[1]})}\)(\(x\)可以看做\({{a}^{[0]}}\))第二层需要计算\({{z}^{[2]}}={{w}^{[2]}}{{a}^{[