• 2025-01-06动手学深度学习-python基础知识介绍part1
    基础详解-part1importtorchx=torch.arange(12)xx.shapex.numel()#数组中元素的总数#修改形状x.reshape(3,4)torch.zeros((2,3,4))#两层,三行,四列print(torch.tensor([[2,1,4,3],[1,2,3,4],[4,3,2,1]]).shape)#二维#两个框表示二维,三个表示三维print(torch.tens
  • 2025-01-06【爆肝4万字】PyTorch从入门到精通:张量操作、自动微分、梯度下降全解析
    文章目录前言一、张量的创建1.1基本创建方式1.1.1常用方法1.1.2示例代码1.1.3输出结果1.2创建线性和随机张量1.2.1常用方法1.2.2示例代码1.2.3输出结果1.3创建0和1张量1.3.1常用方法1.3.2示例代码1.3.3输出结果1.4张量元
  • 2025-01-05弹性波动力学笔记(九) 应力张量的摩尔圆描述
    3.10Mohr'scircleforstresstensorHerewewillshowthatoncetheprincipalvaluesoftensorhavebeenfound,thenormalandshearstressvectorcanbedeterminedgraphicallyusingasimplegeometricalconstructionbasedonthreecircleswithradi
  • 2025-01-04Python学习(一)——配套《PyTorch深度学习实战》
    记录一下Python学习过程中的一些问题:1.在JupyterLab中查询当前文件的地址importosprint(os.getcwd())#查询该文件的地址2.新建cell在JupyterLab中新建一个单元格(cell)的方法有多种,以下是一些常用的方法:使用快捷键:B:在当前单元格下方新建一个单元格。A:在当前单元
  • 2025-01-04Tensorflow张量的创建与修改和张量的运算
    构建一些tensorflow代码来实现一些训练神经网络的概念。其结构如下:低阶张量操作,以下可转化为TensorFlowAPI    构建张量,包括储存神经网络状态的特殊张量    张量运算,比如加法、relu、matmul    反向传播,一种计算数学表达式梯度的方法,在tensorflo
  • 2025-01-02弹性波动力学笔记(六) 应力张量简介中
    3.4TheEquationOfMotionandSymmetryoftheStressTensorHerewewillcombineseveralresultsfromtheprevioussectionsintotheso-calledequation,whichconstitutesoneofthemostimportantresultsofthischapter.wewillseethatthisequationl
  • 2025-01-01深度学习基础理论————分布式训练(模型并行/数据并行/流水线并行/张量并行)
    主要介绍Pytorch分布式训练代码以及原理以及一些简易的Demo代码模型并行是指将一个模型的不同部分(如层或子模块)分配到不同的设备上运行。它通常用于非常大的模型,这些模型无法完整地放入单个设备的内存中。在模型并行中,数据会顺序通过各个层,即一层处理完所有数据之后再传递给下一
  • 2024-12-27动手学深度学习 学习笔记(一)预备知识
    基本概念机器学习的重要性机器学习允许计算机程序通过经验学习,自动改进性能,而不需要人类详细地编程。机器学习在处理复杂任务(如天气预测、自然语言处理、图像识别等)时展现出了超越传统编程的能力。机器学习的日常应用机器学习技术已经渗透到日常生活中,如语音识别、地图导
  • 2024-12-25弹性波动力学笔记(五) 应变张量简介下
    2.5ProofthatstraintensorisatensorToprovethat\(\varepsilon_{ij}\)isatensoritisnecessarytoshowthatunderarotationofaxisthecomponentstransformaccordingto\[\varepsilon_{kl}^{'}=a_{ki}a_{lj}\varepsilon_{ij}\tag{2.5.1}
  • 2024-12-25弹性波动力学笔记(四) 应力张量简介上
    3.TheStressTensorThedevelopmentofthetheoryofelasticitytookabouttwocenturies,beginningwithGalileointhe1600s.Themostdifficultproblemwastogainanunderstandingoftheforceinvolvedinanelasticbody.Thisproblemwasaddressedby
  • 2024-12-25【深度学习基础|知识概述】基础数学和理论知识中的线性知识:矩阵与向量运算、特征值与特征向量、张量,附代码。
    【深度学习基础|知识概述】基础数学和理论知识中的线性知识:矩阵与向量运算、特征值与特征向量、张量,附代码。【深度学习基础|知识概述】基础数学和理论知识中的线性知识:矩阵与向量运算、特征值与特征向量、张量,附代码。文章目录【深度学习基础|知识概述】基础数学和理
  • 2024-12-22YOLOv9-0.1部分代码阅读笔记-lion.py
    lion.pyutils\lion.py目录lion.py1.所需的库和模块2.classLion(Optimizer): 1.所需的库和模块#Lion优化器是一种新型的神经网络优化算法,由GoogleBrain团队通过遗传算法发现,全称为EvoLvedSIgnMOmeNtum,意为“进化的符号动量”。以下是Lion优化器的一些主要特点和
  • 2024-12-21《PyTorch深度学习实战》(一)
    1.张量张量(Tensor)是一个数学对象,可以看作是向量和矩阵的推广。在数学和物理学中,张量被用来描述多维空间中的量,这些量可能具有多个方向和大小。张量的定义和性质如下:阶数(Order):张量的阶数表示张量的维度。一个标量(Scalar)是0阶张量,一个向量(Vector)是1阶张量,一个矩阵(Matrix)是2阶张
  • 2024-12-19【Tensor Computation for Data Analysis】T-SVD(Tensor Singular Value Decomposition)
    什么是T-SVD?T-SVD(TensorSingularValueDecomposition)是针对三维张量的一种奇异值分解方法,类似于我们熟悉的矩阵的SVD(奇异值分解)。T-SVD是基于t-product的分解,可以将张量分解为三个部分:正交张量、对角张量和另一个正交张量。它在信号处理、图像修复、视频分析等多维
  • 2024-12-17弹性波动力学笔记(三) 应变张量简介上
    IntroductionofDeformation,StrainandRotationTensorsElasticitytheory,whichliesatthecoreofseismology,ismostgenerallystudiesasabranchofcontinuummechanics.Althoughthisgeneralapproachisnotrequiredinintroductorycourses,itisa
  • 2024-12-16Yolo11改进策略:卷积篇|DSConv,高效卷积算子|附代码|即插即用
    摘要论文介绍研究背景:神经网络量化是提升速度和降低内存使用量的常用方法,但无标记数据的量化问题受到的关注较少。研究目的:引入DSConv卷积算子,旨在生成更小且推理速度更快的神经网络,同时保持高精度。实验验证:在最流行的神经网络架构(ResNet、DenseNet、GoogLeNet、AlexNet
  • 2024-12-15Differential Transformer: 通过差分注意力机制提升大语言模型性能
    Transformer模型已经成为大语言模型(LLMs)的标准架构,但研究表明这些模型在准确检索关键信息方面仍面临挑战。今天介绍一篇名叫DifferentialTransformer的论文,论文的作者观察到一个关键问题:传统Transformer模型倾向于过分关注不相关的上下文信息,这种"注意力噪声"会影响模型的性能。
  • 2024-12-14Python中PyTorch详解
    文章目录Python中PyTorch详解一、引言二、PyTorch核心概念1、张量(Tensor)1.1、创建张量1.2、张量操作2、自动求导(Autograd)2.1、自动求导示例三、构建神经网络1、使用`nn`模块2、优化器(Optimizer)四、使用示例1、数据加载和处理五、总结Python中PyTorch详解一、
  • 2024-12-14转载:【AI系统】计算图与自动微分
    在前面的文章曾经提到过,目前主流的AI框架都选择使用计算图来抽象神经网络计算表达,通过通用的数据结构(张量)来理解、表达和执行神经网络模型,通过计算图可以把AI系统化的问题形象地表示出来。本文将会以AI概念落地的时候,遇到的一些问题与挑战,因此引出了计算图的概念来对神经网
  • 2024-12-14转载:【AI系统】计算图原理
    在前面的文章曾经提到过,目前主流的AI框架都选择使用计算图来抽象神经网络计算表达,通过通用的数据结构(张量)来理解、表达和执行神经网络模型,通过计算图可以把AI系统化的问题形象地表示出来。本文将会以AI概念落地的时候,遇到的一些问题与挑战,因此引出了计算图的概念来对神经网
  • 2024-12-14转载:【AI系统】计算图挑战与未来
    目前主流的AI框架都选择使用计算图来抽象神经网络计算表达,通过通用的数据结构(张量)来理解、表达和执行神经网络模型,通过计算图可以把AI系统化的问题形象地表示出来。计算图与框架关系计算图回顾在AI框架中,其计算图的基本组成有两个主要的元素:1)基本数据结构张量和2)基本计
  • 2024-12-14转载:【AI系统】张量并行
    在大模型的训练中,单个设备往往无法满足计算和存储需求,因此需要借助分布式训练技术。其中,模型并行(ModelParallelism,MP)是一种重要的方法。模型并行的基本思想是将模型的计算任务拆分到不同的设备上执行,以提高训练效率和处理更大规模的模型。下面将重点介绍模型并行中的张量并行。
  • 2024-12-14转载:【AI系统】自定义计算图 IR
    模型转换涉及对模型的结构和参数进行重新表示。在进行模型转换时,通常需要理解模型的计算图结构,并根据目标格式的要求对其进行调整和转换,可能包括添加、删除或修改节点、边等操作,以确保转换后的计算图能够正确地表示模型的计算流程。本文主要介绍自定义计算图的方法以及模型转换的
  • 2024-12-14转载:【AI系统】计算图挑战与未来
    目前主流的AI框架都选择使用计算图来抽象神经网络计算表达,通过通用的数据结构(张量)来理解、表达和执行神经网络模型,通过计算图可以把AI系统化的问题形象地表示出来。计算图与框架关系计算图回顾在AI框架中,其计算图的基本组成有两个主要的元素:1)基本数据结构张量和2)基本计
  • 2024-12-14转载:【AI系统】张量并行
    在大模型的训练中,单个设备往往无法满足计算和存储需求,因此需要借助分布式训练技术。其中,模型并行(ModelParallelism,MP)是一种重要的方法。模型并行的基本思想是将模型的计算任务拆分到不同的设备上执行,以提高训练效率和处理更大规模的模型。下面将重点介绍模型并行中的张量并行。