- 2024-11-19机器学习:线性回归
章节安排背景介绍均方根误差MSE最小二乘法梯度下降编程实现背景生活中大多数系统的输入输出关系为线性函数,或者在一定范围内可以近似为线性函数。在一些情形下,直接推断输入与输出的关系是较为困难的。因此,我们会从大量的采样数据中推导系统的输入输出关系。典型的单输入
- 2024-11-16线性回归学习笔记
线性回归概述线性回归是一种基本的监督学习算法,用于解决回归问题。它通过拟合数据点,找出特征与目标变量之间的线性关系。其目标是预测连续数值输出。模型公式线性回归模型的数学表达式为:\[y=\mathbf{w}^\top\mathbf{x}+b\]或展开为:\[y=w_1x_1+w_2x_2+\cdot
- 2024-11-15Envelope Theorem
- 2024-11-145.1.4具有极轴转动对称性的拉普拉斯问题求解
拉普拉斯方程的球坐标系解法\[\begin{cases}\frac{1}{r^2}\frac{\partial}{\partialr}\left(r^2\frac{\partialu}{\partialr}\right)+\frac{1}{r^2\sin\theta}\frac{\partial}{\partial\theta}\left(\sin\theta\frac{\partialu}{\partial\theta}\right)=0,
- 2024-11-145.1球坐标系下的拉普拉斯方程分离变数法求解
拉普拉斯方程的球坐标系解法\[\frac{1}{r^2}\frac{\partial}{\partialr}\left(r^2\frac{\partialu}{\partialr}\right)+\frac{1}{r^2\sin\theta}\frac{\partial}{\partial\theta}\left(\sin\theta\frac{\partialu}{\partial\theta}\right)+\frac{1}{r^2\si
- 2024-11-14【深度学习】Deep Learning Fundamentals - Classic Edition
DeepLearningFundamentals-ClassicEditionsite:https://deeplizard.com/learn/video/gZmobeGL0Yg1.MachineLearning机器学习:使用算法分析数据、从数据中学习,然后对新数据做出决定和预测。过程:写一个算法机器在特定的数据集上执行算法之后,机器可以用它从未见过的
- 2024-11-12浅层神经网络
浅层神经网络浅层神经网络通常指包含一个隐藏层的神经网络。这个网络由输入层、隐藏层和输出层构成:输入层:输入层负责接收网络的输入特征,通常表示为列向量\(x^T=[x_1,x_2,x_3]\),每个输入特征\(x_i\)代表样本的一个属性。输入特征的激活值\(a^{[0]}\)就是输入特征向
- 2024-11-07我和chatgpt的问答——偏微分方程是动力系统吗
偏微分方程(PDEs)和动力系统(dynamicalsystems)是数学中的两个重要分支,它们之间有一些联系,但不能简单地将偏微分方程直接等同于动力系统。为了更好地理解它们之间的区别与联系,首先介绍动力系统的定义,并解释它与偏微分方程之间的关系。1.动力系统的定义动力系统是一个数学框架,
- 2024-11-053 有限体积法:推导方程
3有限体积法:推导方程基本原理和目标(注意:这一节看不懂没关系,在后面的推导中会慢慢用到)质量、动量和能量的守恒流体的质量守恒动量改变的速度=一个流体粒子上受到的力的总和(牛顿第二定律)能量改变的速度=一个流体粒子吸收的热量,和作用在其上的功的总和(热力学第一定律)
- 2024-11-05SATA系列专题之五:Link Power Management解析
一、故事前传在之前的文章中,我们已经针对SATA的主要结构进行了较为详细的解析,详见前期文章:1,浅析SATAPhysicalLayer物理层OOB信号;2,SATALinkLayer链路层解析2.0-2.3;3,SATATransportLayer传输层解析3.0-3.4;4,SATACommandLayer命令层解析4.0-4.1;我们这里主要解
- 2024-11-053 有限体积法:推导方程
3有限体积法:推导方程基本原理和目标(注意:这一节看不懂没关系,在后面的推导中会慢慢用到)质量、动量和能量的守恒流体的质量守恒动量改变的速度=一个流体粒子上受到的力的总和(牛顿第二定律)能量改变的速度=一个流体粒子吸收的热量,和作用在其上的功的总和(热力学第一定律)
- 2024-11-053 有限体积法:推导方程
3有限体积法:推导方程基本原理和目标(注意:这一节看不懂没关系,在后面的推导中会慢慢用到)质量、动量和能量的守恒流体的质量守恒动量改变的速度=一个流体粒子上受到的力的总和(牛顿第二定律)能量改变的速度=一个流体粒子吸收的热量,和作用在其上的功的总和(热力学第一定律)
- 2024-11-053 有限体积法:推导方程
3有限体积法:推导方程基本原理和目标(注意:这一节看不懂没关系,在后面的推导中会慢慢用到)质量、动量和能量的守恒流体的质量守恒动量改变的速度=一个流体粒子上受到的力的总和(牛顿第二定律)能量改变的速度=一个流体粒子吸收的热量,和作用在其上的功的总和(热力学第一定律)
- 2024-11-053 有限体积法:推导方程
3有限体积法:推导方程基本原理和目标(注意:这一节看不懂没关系,在后面的推导中会慢慢用到)质量、动量和能量的守恒流体的质量守恒动量改变的速度=一个流体粒子上受到的力的总和(牛顿第二定律)能量改变的速度=一个流体粒子吸收的热量,和作用在其上的功的总和(热力学第一定律)
- 2024-11-053 有限体积法:推导方程
3有限体积法:推导方程基本原理和目标(注意:这一节看不懂没关系,在后面的推导中会慢慢用到)质量、动量和能量的守恒流体的质量守恒动量改变的速度=一个流体粒子上受到的力的总和(牛顿第二定律)能量改变的速度=一个流体粒子吸收的热量,和作用在其上的功的总和(热力学第一定律)
- 2024-11-053 有限体积法:推导方程
3有限体积法:推导方程基本原理和目标(注意:这一节看不懂没关系,在后面的推导中会慢慢用到)质量、动量和能量的守恒流体的质量守恒动量改变的速度=一个流体粒子上受到的力的总和(牛顿第二定律)能量改变的速度=一个流体粒子吸收的热量,和作用在其上的功的总和(热力学第一定律)
- 2024-11-053 有限体积法:推导方程
3有限体积法:推导方程基本原理和目标(注意:这一节看不懂没关系,在后面的推导中会慢慢用到)质量、动量和能量的守恒流体的质量守恒动量改变的速度=一个流体粒子上受到的力的总和(牛顿第二定律)能量改变的速度=一个流体粒子吸收的热量,和作用在其上的功的总和(热力学第一定律)
- 2024-11-053 有限体积法:推导方程
3有限体积法:推导方程基本原理和目标(注意:这一节看不懂没关系,在后面的推导中会慢慢用到)质量、动量和能量的守恒流体的质量守恒动量改变的速度=一个流体粒子上受到的力的总和(牛顿第二定律)能量改变的速度=一个流体粒子吸收的热量,和作用在其上的功的总和(热力学第一定律)
- 2024-11-053 有限体积法:推导方程
3有限体积法:推导方程基本原理和目标(注意:这一节看不懂没关系,在后面的推导中会慢慢用到)质量、动量和能量的守恒流体的质量守恒动量改变的速度=一个流体粒子上受到的力的总和(牛顿第二定律)能量改变的速度=一个流体粒子吸收的热量,和作用在其上的功的总和(热力学第一定律)
- 2024-11-053 有限体积法:推导方程
3有限体积法:推导方程基本原理和目标(注意:这一节看不懂没关系,在后面的推导中会慢慢用到)质量、动量和能量的守恒流体的质量守恒动量改变的速度=一个流体粒子上受到的力的总和(牛顿第二定律)能量改变的速度=一个流体粒子吸收的热量,和作用在其上的功的总和(热力学第一定律)
- 2024-11-053 有限体积法:推导方程
3有限体积法:推导方程基本原理和目标(注意:这一节看不懂没关系,在后面的推导中会慢慢用到)质量、动量和能量的守恒流体的质量守恒动量改变的速度=一个流体粒子上受到的力的总和(牛顿第二定律)能量改变的速度=一个流体粒子吸收的热量,和作用在其上的功的总和(热力学第一定律)
- 2024-11-02pytorch自动微分
求导是几乎所有深度学习优化算法的关键步骤,因为在优化损失函数时会用反向传播,即使参数朝着梯度下降的方向调整,求梯度即求偏导。虽然求导的计算很简单,但对于复杂的模型,手动进行更新很容易出错。Pytorch通过自动微分来加快求导。他会先构建一个计算图(computationalgraph),来跟踪计
- 2024-10-31【深度学习】从公式推导来深入理解误差反向传播算法2:《深度学习入门基于Python的理论与实现》中实现的2层全连接神经网络的two_layer_net类的gradient函数分析
《深度学习入门基于Python的理论与实现》中实现了2层全连接神经网络的代码对MNIST数据集的28x28像素0-9手写数字灰度图像进行分类,本文将重点对代码中的two_layer_net类的gradient函数中的误差反向传播的代码进行公式推导验证。验证小批量数据的交叉熵损失函数对第2层权重
- 2024-10-30零偏更新以及预积分的更新
中值积分形式的预积分(一):https://blog.csdn.net/ergevv/article/details/143165323?spm=1001.2014.3001.5501中值积分形式的预积分(二):https://blog.csdn.net/ergevv/article/details/143262065?spm=1001.2014.3001.5502零偏更新以及预积分的更新:https://blog.csdn.net/ergev