- 2025-01-06动手学习Pytorch:过拟合欠拟合篇
基本概念训练误差:模型在训练数据集上计算得到的误差泛化误差:模型在原始分布中抽取的无限多的样本上的误差生成数据集根据这个函数来生成数据集生成数据集的顺序如下:生成原始数据x->计算x的多个次方->除以(n-1)!->跟系数点乘得到最后的结果max_degree=20#多项
- 2025-01-06【爆肝4万字】PyTorch从入门到精通:张量操作、自动微分、梯度下降全解析
文章目录前言一、张量的创建1.1基本创建方式1.1.1常用方法1.1.2示例代码1.1.3输出结果1.2创建线性和随机张量1.2.1常用方法1.2.2示例代码1.2.3输出结果1.3创建0和1张量1.3.1常用方法1.3.2示例代码1.3.3输出结果1.4张量元
- 2025-01-05Python学习(五)——配套《PyTorch深度学习实战》
1.Python的流程控制tips:我使用的Python3.9版本,if、else是要加:的Python的流程控制主要通过条件语句和循环语句来实现,它们允许程序根据特定的条件执行不同的代码块。以下是Python中常用的流程控制结构:条件语句(if-elif-else)条件语句允许程序根据条件的真假来选择执行不同的代
- 2025-01-05【学习心得】比较Paddle、Tensorflow和Pytorch
PaddlePaddle学的时间最长,买了官方的书,官方的在线学习看了两遍。前后大概一年的跨度,看完第一遍后大半年又看了一遍。12月末的时候去参加了百度在上海张江科学大会堂的一个大会。看完第二遍PaddlePaddle决定把Tensorflow也了解下,遇到了蜥蜴书,真心觉得不错的书,前后花了两个月时间
- 2025-01-05动手深度学习-PyTorch(第二版)PDF、EPUB免费下载
电子版仅供预览,下载后24小时内务必删除,支持正版,喜欢的请购买正版书籍点击原文去下载书籍信息作者:阿斯顿·张(AstonZhang)/李沐(MuLi)/[美]扎卡里·C.立顿(ZacharyC.Lipton)/[德]亚历山大·J.斯莫拉(AlexanderJ.Smola)出版社:人民邮电出版社出品方:异步图书译
- 2025-01-05PyTorch Geometric框架下图神经网络的可解释性机制:原理、实现与评估
在机器学习领域存在一个普遍的认知误区,即可解释性与准确性存在对立关系。这种观点认为可解释模型在复杂度上存在固有限制,因此无法达到最优性能水平,神经网络之所以能够在各个领域占据主导地位,正是因为其超越了人类可理解的范畴。其实这种观点存在根本性的谬误。研究表明,黑盒模型在
- 2025-01-05PyTorch Geometric框架下图神经网络的可解释性机制:原理、实现与评估
在机器学习领域存在一个普遍的认知误区,即可解释性与准确性存在对立关系。这种观点认为可解释模型在复杂度上存在固有限制,因此无法达到最优性能水平,神经网络之所以能够在各个领域占据主导地位,正是因为其超越了人类可理解的范畴。其实这种观点存在根本性的谬误。研究表明,黑盒
- 2025-01-05Python学习(四)——配套《PyTorch深度学习实战》
1.Python中字符串的相加和相乘在Python中,字符串可以通过加号(+)进行相加(连接),也可以通过乘号(*)进行相乘(重复)。以下是这两种操作的详细说明和示例:字符串的相加(连接)字符串的相加是通过使用加号(+)运算符来实现的。它将两个或多个字符串连接成一个单一的字符串。str1="Hello"str2=
- 2025-01-04pytorch各种乘法,mm, matmul, dot, @, *, mul, multiply
torch.mm线代的矩阵乘法,要求输入都是矩阵torch.matmul注意:torch.mm和torch.matmul不等价根据输入不同执行不同的操作:输入都是二维矩阵,矩阵乘法,等同于torch.mm输入都是一维向量,计算向量内积,等同于torch.dot第一个参数是向量,第二个是矩阵,则将第一个参数变成(1,n)的矩
- 2025-01-04《解锁PyTorch潜能:探索强大的辅助库》
《解锁PyTorch潜能:探索强大的辅助库》一、PyTorch入门二、视觉利器torchvision(一)数据集与加载器(二)图像变换魔法(三)预训练模型的力量三、文本处理好帮手torchtext(一)文本数据集加载(二)文本预处理工具(三)词嵌入支持四、音频处理专家torchaudio(一)音频
- 2025-01-04Python学习(一)——配套《PyTorch深度学习实战》
记录一下Python学习过程中的一些问题:1.在JupyterLab中查询当前文件的地址importosprint(os.getcwd())#查询该文件的地址2.新建cell在JupyterLab中新建一个单元格(cell)的方法有多种,以下是一些常用的方法:使用快捷键:B:在当前单元格下方新建一个单元格。A:在当前单元
- 2025-01-04一书从零到精通入门大模型开发了!《从零开始大模型开发与微调》【附PDF】
前言在人工智能领域,大型预训练模型(LargePre-trainedModels,LPMs)已经成为推动自然语言处理(NLP)技术发展的重要力量。这些模型在海量数据上进行预训练,能够捕捉到丰富的语言模式和知识,进而在各种下游任务上展现出卓越的性能。今天,给大家分享的这份手册以PyTorch2.0为基础
- 2025-01-03PyTorch 中 reciprocal(取倒数)函数的深入解析:分析底层实现CPP代码
PyTorch中reciprocal函数的深入解析reciprocal:美[rɪˈsɪprəkl][数]倒数;注意发音引言reciprocal是PyTorch和底层C++实现中广泛使用的数学函数,它计算输入的倒数(reciprocal)。倒数在数值计算、反向传播和优化过程中经常使用,尤其是在浮点数缩放和归一化的场景
- 2025-01-02【新教程】华为昇腾NPU的pytorch环境搭建
1硬件配置使用学校的集群,相关配置如下:CPU:鲲鹏920NPU:昇腾910B2安装版本根据昇腾官方gitee上的信息,Pytoch2.1.0是长期支持版本,因此选择安装这一版本,从而最大限度避坑。本教程选择的版本如下:Python:3.9Pytorch:2.1.0选择依据:参考链接:https://gitee.com/ascend/pytorch3
- 2025-01-0210.20
实验总结 在深入学习深度学习领域的过程中,TensorFlow和PyTorch这两大主流框架成为了我探索的重点,这段学习经历可谓收获满满。 初次接触TensorFlow,其高度模块化和高效的计算图机制令人惊叹。构建神经网络时,从定义输入占位符、构建隐藏层到设置损失函数与优化器,每一步都严
- 2025-01-01DeepSpeed训练得到checkpoint如何像Huggingface模型一样评测evaluation?zero_to_fp32.py有什么用?怎么用?
DeepSpeed训练得到checkpoint如何像Huggingface模型一样评测evaluation?具体步骤首先看一个样例:这是我用open-instruct框架,使用DeepSpeed训练1728个steps得到的一个checkpoint。请注意,下文我演示用的例子是基于step_1152,主要方法和step_1728这个名字没有任何区别。在使
- 2024-12-30pytorch中神经网络的定义方法
1.继承torch.nn.Module类(推荐方法)最常见和推荐的方式是通过继承torch.nn.Module类来创建一个自定义的神经网络模型。在这种方式下,你需要定义__init__()方法来初始化网络层,并在forward()方法中定义前向传播逻辑。示例:一个简单的全连接神经网络importtorchimpor
- 2024-12-29【故障诊断】【pytorch】基于CNN-LSTM故障分类的轴承故障诊断研究[西储大学数据](Python代码实现)
- 2024-12-2824-12-28-pytorch深度学习中音频I/O 中遇到的问题汇总
文章目录pytorch深度学习中音频I/O中遇到的问题汇总问题1:音频文件格式的读取问题问题2:音频文件绘图问题小结pytorch深度学习中音频I/O中遇到的问题汇总问题1:音频文件格式的读取问题参考链接:torchaudio加载wav报错Couldn‘tfindappropriatebackendtohandle
- 2024-12-26Pytorch知识框架梳理
在学习和掌握PyTorch的过程中,理解其框架结构和各个模块之间的关系非常重要。下面我将帮助你梳理一个PyTorch知识框架图,并详细讲解其中的重点内容。PyTorch知识框架图基础组件Tensor:PyTorch的基本数据结构,相当于NumPy中的ndarray,可以在CPU和GPU上进行计算。Autograd(自
- 2024-12-25PyTorch 入门指南:安装流程、应用示例与问题解法
安装PyTorch环境准备确保你的系统安装了Python。PyTorch支持Python3.6及以上版本。可以从Python官方网站(https://www.python.org/)下载并安装。建议使用虚拟环境(如venv或conda)来隔离项目依赖。以conda为例,你可以使用以下命令创建一个新的环境:condacreate-npytorch_env
- 2024-12-24跟着问题学23番外——反向传播算法理论及pytorch自动求导详解
前向传播与反向传播在单层神经网络的优化算法里,我们讲到优化算法是为了寻找模型参数使得网络的损失值最小,这里详细介绍一下应用的基础——反向传播算法。在神经网络中,梯度计算是通过反向传播算法来实现的。反向传播算法用于计算损失函数相对于网络参数(如权重和偏置)的梯度,从而
- 2024-12-24PyTorch-小土堆跟学-入门保姆级教程
github链接及视频https://github.com/xiaotudui/pytorch-tutorialhttps://www.bilibili.com/video/av74281036/?vd_source=48334bf584e5051d1187b1f0f2d076e8训练套路准备数据集(原始数据集合;已标注的数据集)处理数据集(原始数据集要做标注;已标注的数据集获取数据长度辅助计
- 2024-12-22安装cuda版本的torch
确保本地显卡是N卡,已经按照最新驱动下载并安装:cuda_12.6.3_561.17_windows下载并安装:cudnn-windows-x86_64-9.3.0.75_cuda12-archive下载并安装:Miniconda3-latest-Windows-x86_64(最好选中设置环境变量,虽然它不建议),修改源为清华,具体忘了哪个命令。condacreate-ntorchcon
- 2024-12-22使用PyTorch实现GPT-2直接偏好优化训练:DPO方法改进及其与监督微调的效果对比
基于人类反馈的强化学习(RLHF)已成为大型语言模型(LLM)训练流程中的关键环节,并持续获得研究界的广泛关注。本文将探讨RLHF技术,特别聚焦于直接偏好优化(DirectPreferenceOptimization,DPO)方法,并详细阐述了一项实验研究:通过DPO对GPT-2124M模型进行调优,同时与传统监督微调(Supe