• 2024-08-22深度学习:(二)计算图及其应用,以及梯度下降法的初版程序
    计算图将公式以链式图形的方式呈现出来,方便理清计算思路计算图在梯度下降法中的应用梯度下降法中,会涉及到求偏导,求偏导的方法一般就采用反向传播,具体如下:程序m个训练样本的梯度下降法的大致程序如下:————————————————————————————
  • 2024-07-03在李航的《统计学习方法》中多项式拟合偏导函数推导存在的疑问
    在阅读李航的《统计学习理论第二版》1.42过拟合与模型选择中遇到的一个问题。​​​这段公式的推导让我费解,于是我开始了自己的验证。前提:用多项式函数对已知数据的拟合。设拟合函数为:f
  • 2024-06-07机器学习--有监督学习--算法整理
     整理原因:为了更好的理解学习算法为什么有用,还是决定认真看看推导公式和过程。以下是有监督学习线性回归的推导过程。算法目标:根据一组x和y的对应关系,找到他们的线性关系,得到拟合线性方程:y=ax+b,从而对于任意的自变量x,都可以预测到对应的因变量y的值。并且,要保证这个a,b足够可靠
  • 2024-06-04高等数学·二元函数可微与偏导的联系​
    1.二元函数的可偏导在二元函数中,一元函数的可导的概念变为可偏导,导函数的概念变为偏导函数,具体看下例:二元函数f(x,y)对x、y的偏导函数分别为:在求二元函数的偏导函数时,都是假设另外一个变量为常量,然后对余下那个变量求导数。例如,f(x,y)对x的偏导函数,就是假设y为常量,然后f(x,y)
  • 2024-01-18day6
    今天高数部分练了无穷级数和多元函数微分学部分首先对什么时候加括号什么时候不能加有了更深刻的认识,正向级数可以加括号,收敛级数可以加括号还有无穷级数这一章要经常用到基本不等式通过放缩和n分之一比较大小从而得到敛散性的结论14.4那个a的三分之一次方减去b的三分之一次
  • 2023-08-18高数---定义法求二阶偏导小感悟
    我们使用定义法求以下偏导1、我们用定义法对(x0,y0)点求关于x的偏导得到的结果是作用于(x0,y0)的领域内,一般可以得到一个具体值2、如果我们把x当作一个常量,而对(x,y0)关于x求偏导,得到的是一个关于x的表达式,它作用于y=y0的这一条直线,含义是f(x,y)沿着y=y0这条直线的所有关于x的
  • 2023-06-30循环神经网络入门基础
    文章和代码已经归档至【Github仓库:<https://github.com/timerring/dive-into-AI>】或者公众号【AIShareLab】回复神经网络基础也可获取。循环神经网络序列数据序列数据是常见的数据类型,前后数据通常具有关联性例如“Catsaverage15hoursofsleepaday”语言模型语言模型是
  • 2023-06-20【机器学习】最小二乘法(代数&矩阵推导)
    前置知识平方损失函数假设上图的红线就是拟合出的函数,那么每个数据点(xi,yi)所对应的误差就是上面的误差往往也称之为「残差」。但是在机器学习中,我们更喜欢称作「损失」,即真实值和预测值之间的偏离程度。那么,对
  • 2023-05-16多元可微可导连续
    多元偏导数的几何意义如下图,当对x求偏导的时候,过y做\(y_0\)的平面,那么x的偏导就是上面的切线多元函数可导(偏导)推理为什么不能推连续为什么不能推可微
  • 2023-04-20高等数学A(2) UOOC 第二章 错题
    高等数学A(2)UOOC第二章错题驻点就是使得函数一阶导为0的点放一下潦草的笔记:2.10章测验题偏导存在定义可微与全增量隐函数求导解析:根据隐函数求导法则(全微分方程的性质)未知解析:条件极值(拉格朗日乘数法)复合偏导就是表达式代换而已。2.82.8.2这是错的,但
  • 2023-03-271.1偏导
    几何意义对x的偏导,假设y不动,平面y=\(y_0\)与曲面的交线得到曲线,去直线的任意一点对x做导数,就是对x的偏导,上面的阐述也间接说明对某个变量偏导将其他看作常数(上面几何
  • 2023-03-23matlab学习笔记5 求导&数值微分&求根
    求导&偏导diff(f(x),x,n)//关于x的n阶导数jacobian([f(x,y,z),g(x,y,z),h(x,y,z)],[x,y,z])//求雅克比矩阵factor(f(x))//分解成多项式相乘用雅克比矩阵可求出二阶偏
  • 2023-03-07多元函数微分学
    偏导数在某点处固定除了某一变量外的其它变量,对该变量求倒数得到的结果就成为多元函数在该点处关于该变量的偏导数。设该变量为\(x\),偏导数就记为\(\dfrac{\partf}{\part
  • 2023-02-25概率论--极大似然估计法
    求解极大似然估计值的步骤1.把所有的函数值相乘2.两边取lnx3.求偏导求偏导的时候令该偏导值等于0,解出该参数的值就为估计值连续性的求解方法和离散型一样
  • 2023-02-19物理数学强基基础
    标题的意思是这一部分虽然是数学内容,但是解决物理强基问题的过程中可能会用到,所以做一些学习了解。一.偏导1.偏导基础首先根据导数我们知道\(f'(x)=\lim\limits_{\Delt
  • 2023-02-11求一个变量的对数对另一个变量对数的偏导
    求一个变量的对数对另一个变量对数的偏导今天看论文看到后面算法部分,发现了这样的问题,一时间懵住了,仔细一想才回过味来已知:\[F(x_i,x_j,\theta)=0\]\[logx_j=
  • 2022-12-21[深度学习] Contractive Autoencoder
    ​ 转载于DeepLearning:ContractiveAutoencoder-dupuleng-博客园一、雅克比矩阵雅克比矩阵是一阶偏导,假设(x1,x2,....,xn)到(y1,y2,...,ym)的映射,相当于m个n元函
  • 2022-10-31反向传播(Backpropagation)相关思想
    在前面我们学习了SVM损失函数和softmax损失函数,我们优化权重矩阵w的具体思路便是让损失函数最小化,还记得损失函数的定义吗?   没错,损失函数长这样,其中,Wj为权