• 2024-07-02李沐动手学深度学习V2-chap_preliminaries
    李沐动手学深度学习V2文章内容说明本文主要是自己学习过程中的随手笔记,需要自取课程参考B站:https://space.bilibili.com/1567748478?spm_id_from=333.788.0.0课件等信息原视频简介中有CSV文件修改读取成张量tensor数据预处理首先(创建一个人工数据集,并存储在CSV(逗号分隔值
  • 2024-06-21pytorch实现:PINN 寻求一维非线性薛定谔方程数值解
    pytorch实现:PINN寻求一维非线性薛定谔方程数值解pytorch实现:PINN寻求一维非线性薛定谔方程数值解1.非线性薛定谔方程2.PINN实例2.1偏微分方程条件2.2损失函数推导2.3损失函数定义3.代码实现4.训练结果5.源代码pytorch实现:PINN寻求一维非线性薛定谔方程数值
  • 2024-06-21JAX-中文文档-八-
    JAX中文文档(八)原文:jax.readthedocs.io/en/latest/自动微分手册原文:jax.readthedocs.io/en/latest/notebooks/autodiff_cookbook.htmlalexbw@,mattjj@JAX拥有非常通用的自动微分系统。在这本手册中,我们将介绍许多巧妙的自动微分思想,您可以根据自己的工作进行选择。i
  • 2024-06-195.7
    实验一:黄金分割法(0.618法)程序设计一、实验目的掌握缩小寻优区间的黄金分割法。二、实验内容(1)请用0.618法求解优化问题:的极小点和极小值(进退法确定初始区间),精度为10-6;(2)根据0.618法算法步骤编写Matlab的程序实现0.618搜索法;(3)要求输出内容包括:极小点、极小值、每次迭代的a、b、al、a
  • 2024-06-18python编程笔记
    pythonimport库失败:原因是解释器选择不对,pip3installnumpy是把numpy库安装在3.xxx的python解释器中,但是我是在3.9.6的解释器下运行的,所以找不到,此时需要把解释器换成3.11.9即可。Super(Net,self)._init_()这是对继承自父类的属性进行初始化,子类继承了父类的所有属性
  • 2024-06-166.14实验四:共轭梯度法程序设计
    实验四:共轭梯度法程序设计一、实验目的掌握共轭梯度法的基本思想及其迭代步骤;学会运用MATLAB编程实现常用优化算法;能够正确处理实验数据和分析实验结果及调试程序。  二、实验内容(1)求解无约束优化问题:(2)终止准则取;(3)完成FR共轭梯度法的MATLAB编程、调试;(4)选取几个与实验二
  • 2024-06-11【课程总结】Day7:深度学习概述
    前言本篇文章,我们将通过示例来逐步学习理解导数、求函数最小值、深度学习的本质、以及使用numpy和pytorch实操深度学习训练过程。线性回归线性回归内容回顾在《【课程总结】Day5(下):PCA降维、SVD分解、聚类算法和集成学习》中,我们已经了解到线性回归以及线性回归可以表
  • 2024-06-11Pytorch 实现简单的 线性回归 算法
    Pytorch实现简单的线性回归算法简单tensor的运算Pytorch涉及的基本数据类型是tensor(张量)和Autograd(自动微分变量)importtorchx=torch.rand(5,3)#产生一个5*3的tensor,在[0,1)之间随机取值y=torch.ones(5,3)#产生一个5*3的Tensor,元素都是1z=x+y
  • 2024-06-08算法金 | 这次终于能把张量(Tensor)搞清楚了!
    大侠幸会,在下全网同名[算法金]0基础转AI上岸,多个算法赛Top[日更万日,让更多人享受智能乐趣]1.张量(Tensor)基础概念1.1张量的定义与重要性张量是深度学习中用于表示数据的核心结构,它可以视为多维数组的泛化形式。在机器学习模型中,张量用于存储和变换数据,是实现
  • 2024-06-052024/6/5 工程数学 实验四
    f(x)=(x1​+10x2​)2+5(x3​−x4​)2+(x2​−2x3​)4+10(x1​−x4​)4我们将这个函数实现为MATLAB代码,并使用FR共轭梯度法对其进行优化。首先需要定义目标函数及其梯度。然后,使用前面介绍的FR共轭梯度法进行优化。目标函数和梯度的定义我们需要先定义目标函数f(x)f(x)f(x)及
  • 2024-06-02OpenCV 的几种查找图像中轮廓边缘的方法
     原始图片: 1、Sobel()Sobel算子结合了高斯平滑和微分,用于计算图像的梯度,从而突出显示边缘。importcv2#读取图像image=cv2.imread('image.png',cv2.IMREAD_GRAYSCALE)#使用Sobel算子查找水平和垂直边缘sobel_x=cv2.Sobel(image,cv2.CV_64F,1,0,ksize
  • 2024-05-295.29 matlab
    %定义目标函数f=@(x)(x(1)+10*2)^2+5*(x(3)-x(4))^2+(x(2)-2*x(3))^4+10*(x(1)-x(4))^4;%初始值和终止准则x0_list=[-2,2,-3,3;-3,-1.5,0.5,-1.5];%确保每个初始点有四个元素tol=1e-5;%梯度和海森矩阵函数(这里仅为示例,需要您根据实际情
  • 2024-05-06动手学深度学习——基本张量运算
    基本张量运算张量张量可以被看做多维数组,高维矩阵,可以进行多种数据操作和数学运算importtorchtorch.tensor([[1.,-1.],[1.,-1.]])创建张量tensor([[1.,-1.],[1.,-1.]])a=torch.randn(2,3)torch.sigmoid(a)a处理张量tensor([[-0.1690,-0.2554,-0.4
  • 2024-04-22pytorch
    pytorchpytorch基础Tensor(张量)pytorch中最基本的操作对象,表示的是一个多维的矩阵pytorch可以在GPU上运行,numpy的ndarry只能在CPU上运行Tensor数据类型:32位浮点型:torch.FloatTensor64位浮点型:torch.DoubleTensor16位整形:torch.ShoutTensor32位整形:torch.IntTens
  • 2024-04-20回归问题求解 python---梯度下降+最小二乘法
      MSE=1/m*∑i=1m(yi−y^i)2 a=[1.,2.,3.,4.,5.,6.,7.,8.,9.]b=[3.,5.,7.,9.,11.,13.,15.,17.,19.]points=[[a[i],b[i]]foriinrange(len(a))]lr=0.001eps=0.0001m=len(
  • 2024-04-18手搓自动微分
    技术背景自动微分技术,在各大深度学习框架里面得到了广泛的应用。但是其实究其原理,就是一个简单的链式法则。要实现一个自动微分框架是非常容易的事情,难的是高阶的自动微分和端到端的自动微分。这篇文章主要介绍一阶自动微分的基础Python实现,以及一些简单的测试案例。链式法则求
  • 2024-04-18推荐一个计算Grad-CAM的Python库
    前言类激活图CAM(classactivationmapping)用于可视化深度学习模型的感兴趣区域,增加了神经网络的可解释性。现在常用Grad-CAM可视化,Grad-CAM基于梯度计算激活图,对比传统的CAM更加灵活,且不需要修改模型结构。虽然计算grad-cam并不复杂,但是本着能导包就导包的原则,想着去用现成的
  • 2024-04-09MindSpore自动微分小技巧
    技术背景基于链式法则的自动微分技术,是大多数深度学习框架中所支持的核心功能,旨在更加快速的进行梯度计算,并且可以绕开符号微分的表达式爆炸问题和手动微分的困难推导问题。本文主要基于MindSpore框架,记录一下几种自动微分的使用技巧。MindSpore版本信息:Name:mindsporeVersion
  • 2024-04-082024.4.8 pytorch框架初上手
    pytorchPyTorch是一个针对深度学习,并且使用GPU和CPU来优化的tensorlibrary(tensor库)中文文档:https://pytorch.org/resources梯度/导数计算#linear.pyimporttorchimportnumpyasnpx=torch.tensor(3,)w=torch.tensor(4.,requires_grad=True)b=t
  • 2024-04-05梯度下降法及变式(代码实现)
    梯度下降BGDdefbatchGradientDescent(x,y,theta,alpha,m,maxInteration):'''批梯度下降算法简单实现x:输入y:输出theta:w和b组成的向量alpha:学习率m:批数据数量maxInteration:最大迭代次数'''x_train=x.transpose
  • 2024-04-02grad_cam下的自定义模型获取热力图
    原文链接:https://blog.csdn.net/zxdd2018/article/details/1255053521.(多张图片)备注:gram_cam_1importosimportnumpyasnpimporttorchimportcv2importmatplotlib.pyplotaspltimporttorchvision.modelsasmodelsfromtorchvision.transformsimportCompose,N
  • 2024-04-0102-05自动微分
    2.5自动微分1.一个简单的例子importtorchx=torch.arange(4.0)y=2*torch.dot(x,x)y.backward()x.gradx.grad.zero_()#在默认情况下,PyTorch会累积梯度,我们需要清除之前的值y=x.sum()y.backward()x.grad2.分离计算#y是作为x的函数计算的,而z则是作为y
  • 2024-03-20Pytorch | Tutorial-05 autograd 自动微分
    这是对Pytorch官网的Tutorial教程的中文翻译。在训练神经网络时,最常用的算法是反向传播。在该算法中,根据损失函数相对于给定参数的梯度来调整参数(模型权重)。为了计算这些梯度,PyTorch有一个名为 torch.autograd 的内置微分引擎。它能自动计算任何计算图的梯度。考虑最
  • 2024-02-16NumPyML 源码解析(五)
    numpy-ml\numpy_ml\preprocessing\nlp.py#导入必要的库和模块importreimportheapqimportos.pathasopfromcollectionsimportCounter,OrderedDict,defaultdictimportnumpyasnp#定义英文停用词列表,来源于"GlasgowInformationRetrievalGroup"_STOP_WORDS=
  • 2024-02-052-3动态计算图
    本节我们将介绍Pytorch的动态计算图。包括:动态计算图简介计算图中的Function计算图和反向传播叶子节点和非叶子节点计算图在TensorBorad中的可视化1.动态计算图简介Pytorch的计算图是由节点和边组成,节点表示张量或者Function,边表示张量和Function之间的依赖关系。P