• 2024-11-19单变量微积分学习笔记:反函数求导法则(12)【6,9,11】
    常用公式\(\arcsin(x)=\frac{1}{\sqrt{1-x^2}}\)\(\arccos(x)=-\frac{1}{\sqrt{1-x^2}}\)\(\arctan(x)=\frac{1}{1+x^2}\)证明\(y=\arcsin(x)\)\(\sin(y)=x\)\(\cos(y)y'=1\)\(y'=\frac{1}{\cos(y)}\)\(y'=\
  • 2024-11-19单变量微积分学习笔记:求导(6)【3】
    常见\((x^n)'=nx^{n-1}\)\((sin(x))'=cos(x)\)\((cos(x))'=-sin(x)\)\((x^n)'=nx^{n-1}\)\(n\inZ^+\)\(\lim_{\Deltax\to0}\frac{(x+\Deltax)^n-x^n}{\Deltax}=\lim_{\Deltax\to0}\frac{nx^{n-1}\
  • 2024-11-19单变量微积分学习笔记:四则运算求导法则(7)【6】
    公式\((u\pmv)'=u'\pmv'\)\((uv)'=u'v+uv'\)\((\frac{u}{v})'=\frac{u'v-v'u}{v^2}\)证明(导数的定义)\((u\pmv)'=\lim_{\Deltax\to0}\frac{(u(x+\Deltax)\pmv(x+\Deltax))-(u
  • 2024-11-01D55【python 接口自动化学习】- python基础之模块与标准库
     day55练习:实现求导学习日期:20241101学习目标:模块与标准库--70小试牛刀:如何使用Python为函数求导?学习笔记:需求分析使用第三方模块实现函数求导编写程序并测试#求导fromsympyimportDerivative,Symbolx=Symbol('x')y=x*x+3*x+2d=Derivative(y,x)pri
  • 2024-10-18递推数列的极限(上)------单调有界部分
    不管怎么样,求极限之前都要先证明极限存在,即数列收敛。证明数列收敛两种方法:一种是单调有界准则,一种是夹逼准则。一.单调有界准则例1上面这道题的心路历程:先在草稿纸用上帝视角求出‘极限’,虽然是猜的,但是一定是对的。然后根据这个极限,以及题目给的条件,比如这道题给
  • 2024-10-14高数导数积分知识点归纳
    高数公式函数1.基本公式:2.常见函数类型线性函数(a和b是常数):多项式函数(ai是常数):指数函数(a>0,且a≠1)对数函数(a>0, 且a≠1)三角函数:如正弦函数f(x)=sin(x),余弦函数f(x)=cos(x),正切函数f(x)=tan(x)如反正弦函数f(x)=arcsin(x),反余弦函数f(x)=arccos(x),反正切
  • 2024-10-11人工智能的高数基础2 导数
    1.概念速度角度:在物理学中,速度是描述物体位置随时间变化快慢的量。假设我们有一个函数f(t1)表示物体在时间t1的位置,f(t2)表示物体在时间t2的位置,那么在t1到t2时间段内,物体移动的距离为f(t2)-f(t1),平均速度为:                             
  • 2024-10-10机器学习之梯度消失和梯度爆炸
    第一部分:梯度消失问题描述我们以多层单神经元为例,同时,为了简化问题描述,我们省略偏置b:假设我们现在想要更新参数w1:那么通过链式法则求导就是:假设我们使用的是sigmoid函数:那么sigmoid的求导函数图像为:倒数的范围为0~1/4,而不是0~1之间,如果是0~1之间,那么上面的这四个
  • 2024-09-24日新月异 PyTorch - pytorch 基础: 自动求导
    源码https://github.com/webabcd/PytorchDemo作者webabcd日新月异PyTorch-pytorch基础:自动求导示例如下:basic\demo02.pyimporttorchimportmath#自动求导的简单说明defsample1():#requires_grad用于表示是否需要自动求导k=torch.tensor(1.23
  • 2024-09-15对数几率回归中Sigmoid 函数的求导数 ′()并将σ ′ (x) 表达为 σ(x)(1−σ(x)) 的形式
    我们从Sigmoid函数的定义出发,逐步推导出这一公式。让我们详细说明这个推导过程。1.Sigmoid函数的定义首先,Sigmoid函数定义为:σ(x
  • 2024-09-14多元线性回归损失函数求导过程 均方误差推导过程 最小二乘法推导
    1.方程2-8:          2.对方程2-8关于求导:          3.分别求导:   ,因为 与无关。   ,根据矩阵微分公式。   ,根据矩阵微分公式。   ,根据矩阵微分公式,这里是对称矩阵,所以。4.将求导结果代入:         
  • 2024-09-14高等数学 2.2 函数的求导法则
    目录1、常数和基本初等函数的导数公式2、函数的和、差、积、商的求导法则3、反函数的求导法则4、复合函数的求导法则1、常数和基本初等函数的导数公式公式公式(1)\((C)'=0\)(2)\((x^{\mu})'=\mux^{\mu-1}\)(3)\((\sinx)'=\cosx\)(4)\((\cosx)'=-\sinx\)
  • 2024-09-08《动手学深度学习》笔记3——矩阵求导
    李沐老师的讲解思路是先从数学概念引入,讲完以后再到代码实现:1.数学概念1.1标量导数1.2向量求导(梯度)分为四种情况:1.2.1标量y,关于向量x求导李沐老师这里先讲了y为标量,x为向量的情况,x是长度为1的列向量,关于列向量的导数(即梯度)是行向量,具体解释如下:在这个例子里, 
  • 2024-08-10快速多项式全家桶 简略总结 (不确定里面的内容对不对)
    多项式牛顿迭代解决的问题:求一个[多项式函数](?)\(G\),使得\(F(G)\equiv0\pmod{x^n}\)。(听XK提到泛函分析)\[G_{k+1}\equivG_k-\frac{F(G_k)}{F'(G_k)}\pmod{x^{2^{k+1}}}\]求导时把\(G\)当成未知数,不要对\(G\)求导。倍增。加法每一项对应
  • 2024-08-06关于简单的部分数学函数用python求导的示例
    1.求常数的导数题目代码1.求常数的导数:$f(x)=c$ 运行代码fromsympyimport*x,c=symbols('xc')c.diff(x)结果 2.求幂函数导数:题目代码2.求幂函数导数:$$f(x)=x^\mu$$运行代码fromsympyimport*x,mu=symbols('xmu')(x**mu).diff(x)结果  3.求三角
  • 2024-07-27张量求导
    点击查看代码#-*-coding:utf-8-*-#@Author:钱力#@Time:2024/7/278:48importtorch#标量求导x=torch.tensor(-2.0,requires_grad=True)#x需要被求导b=torch.tensor(-2.0)c=torch.tensor(1.0)d=torch.pow(x,2)e=x*by=d+e+cy.
  • 2024-07-20科研中常用到的矩阵乘积求导
        针对优化问题来说,一般选有优化变量X:    构造优化问题中常常会出现一些矩阵,这里用ABC表示,这些矩阵会与x进行相关计算,然后你要更新x,就要去求由上述矩阵表示的代价对于x的雅可比矩阵。    这里给出乘积矩阵求导的基本逻辑:    以这个规则
  • 2024-07-03《智能计算系统》第五章 编程框架原理(上)课程笔记
    《智能计算系统》第五章编程框架原理(上)课程视频链接:https://www.bilibili.com/video/BV1Ei421i7Rg本文源自于B站国科大计算所智能计算系统课程官方账号所公开上传的视频,在原有视频之上,提取了关键帧、将音频转成了文字并进行了校正,以便学习使用。在此,也感谢国科大计算所智能
  • 2024-06-12自动求导
    向量链式法则标量链式法则拓展到向量例1例2自动求导自动求导计算一个函数在指定值上的导数计算图将代码分解成操作子将计算表示成一个无环图显式构造(Tensorflow/Theano/MXNet)隐式构造(Pytorch/MXNet)自动求导的两种模式正向累积反向累积(反向传递)a.构造计
  • 2024-06-11我并不会求导
    鉴于本人很菜,只能把脑子里仅有的一点废渣倒出来再鉴于本人很社恐,你们不要再问我怎么求导了>_<导导数的意义\(f(x)\)在\(x\)处的导数\(f'(x)\)的含义为:\(f(x)\)在x处的切线斜率\(k\).如\(f(x_{0}):kx+b=k\).基本导数公式\([f(x)+g(x)]'=f'(x)+g'(x)\)\([f(x
  • 2024-06-10概率论中两种特殊的 E(x) 计算方法:先求积分再求导,或者先求导再求积分
    为了求解某个函数(E(x)),可以使用两种方法:先求积分再求导,或者先求导再求积分。这里我们以数列求和公式为例,分别介绍这两种方法。1.先求积分再求导假设我们有一个函数(f(x))的级数展开:E
  • 2024-06-07机器学习--有监督学习--算法整理
     整理原因:为了更好的理解学习算法为什么有用,还是决定认真看看推导公式和过程。以下是有监督学习线性回归的推导过程。算法目标:根据一组x和y的对应关系,找到他们的线性关系,得到拟合线性方程:y=ax+b,从而对于任意的自变量x,都可以预测到对应的因变量y的值。并且,要保证这个a,b足够可靠
  • 2024-06-05最大似然估计的求解步骤(详细解释,通俗易懂)
          关于最大似然估计的定义我已经分享过啦,小伙伴们可以通过下面的链接看看 什么是最大似然估计?1.求解步骤        今天我们来说一下它的求解步骤(这里的求解过程是以离散型随机变量为例,连续型随机变量同理)。在上文中我们知道,离散型随机变量的似然函数为
  • 2024-05-26最小二乘法-超详细推导(转换为矩阵乘法推导,矩阵求导推导)
    最小二乘法就是让均方误差最小。下面是损失函数转换为矩阵方式的详解如何让其最小,在导数为0的地方取极小值。问:导数为0的地方可能去极大值,也可能是极小值,凭什么说导数为0就是极小值?答:因为使用的是均方误差,他是一个凹函数,导数为0的点即为最小值和极小值。建议学习一下线
  • 2024-05-14第 4 节 多元复合函数的求导法则
    第四节多元复合函数的求导法则1.一元函数与多元函数复合的情形2.多元函数与多元函数复合的情形