• 2024-07-01【打卡】002 p2 CIFAR10彩色图片识别
    打卡~555我的环境:●语言环境:Python●编译器:jupyternotebook●深度学习环境:Pytorch>-**
  • 2024-06-21PyTorch+CNN进行猫狗识别项目
    任务介绍数据结构为:big_data  ├──train  │ └──cat  │    └──XXX.jpg(每个文件夹含若干张图像)  │ └──dog  │    └──XXX.jpg(每个文件夹含若干张图像)  ├──val  │ └──cat  │
  • 2024-06-16PyTorch学习9:卷积神经网络
    文章目录前言一、说明二、具体实例1.程序说明2.代码示例总结前言介绍卷积神经网络的基本概念及具体实例一、说明1.如果一个网络由线性形式串联起来,那么就是一个全连接的网络。2.全连接会丧失图像的一些空间信息,因为是按照一维结构保存。CNN是按照图像原始结构进
  • 2024-06-13实操教程|PyTorch实现断点继续训练
    作者丨HUST小菜鸡(已授权)编辑丨极市平台最近在尝试用CIFAR10训练分类问题的时候,由于数据集体量比较大,训练的过程中时间比较长,有时候想给停下来,但是停下来了之后就得重新训练,之前师兄让我们学习断点继续训练及继续训练的时候注意epoch的改变等,今天上午给大致整理了一下,不全面
  • 2024-06-07eth2.0基本概念
    1.Epoch在以太坊生态系统中,"epoch"是一个重要的概念,特别是在以太坊2.0(也称为Eth2或Serenity)中。以太坊2.0引入了权益证明(ProofofStake,PoS)共识机制,epoch在其中起到了关键作用。以下是关于以太坊epoch的详细解释:什么是Epoch?在以太坊2.0中,时间被分成了周期
  • 2024-06-06autotrain学习-环境搭建、模型和数据集下载、训练全过程
    autotrain学习-环境搭建、模型和数据集下载、训练全过程1.参考链接2.创建容器3.安装autotrain4.解决没有真实权值的问题(不下载真实的权值)5.下载SFT微调数据集6.下载opt-125m模型(忽略权值文件)7.下载后的目录结构8.SFT训练A.生成配置文件(使用之前下载好的模型和数据集
  • 2024-06-04麻醉医生的深度学习之旅 P4:Pytorch实现猴痘病识别
  • 2024-06-04学习笔记14:模型保存
    转自:https://www.cnblogs.com/miraclepbc/p/14361926.html保存训练过程中使得测试集上准确率最高的参数importcopybest_model_wts=copy.deepcopy(model.state_dict())best_acc=0train_loss=[]train_acc=[]test_loss=[]test_acc=[]forepochinrange(extend
  • 2024-06-04学习笔记17:DenseNet实现多分类(卷积基特征提取)
    转自:https://www.cnblogs.com/miraclepbc/p/14378379.html数据集描述总共200200类图像,每一类图像都存放在一个以类别名称命名的文件夹下,每张图片的命名格式如下图:数据预处理首先分析一下我们在数据预处理阶段的目标和工作流程获取每张图像以及对应的标签划分测试集和训
  • 2024-06-04学习笔记19:图像定位
    转自:https://www.cnblogs.com/miraclepbc/p/14385623.html图像定位的直观理解不仅需要我们知道图片中的对象是什么,还要在对象的附近画一个边框,确定该对象所处的位置。也就是最终输出的是一个四元组,表示边框的位置图像定位网络架构可以将图像定位任务看作是一个回归问题!数据
  • 2024-06-04学习笔记12:图像数据增强及学习速率衰减
    转自:https://www.cnblogs.com/miraclepbc/p/14360231.html数据增强常用数据增强方法:transforms.RandomCrop#随机位置裁剪transforms.CenterCrop#中心位置裁剪transforms.RandomHorizontalFlip(p=1)#随机水平翻转transforms.RandomVerticalFlip(p=1)#随机上下
  • 2024-06-04学习笔记13:微调模型
    转自:https://www.cnblogs.com/miraclepbc/p/14360807.htmlresnet预训练模型resnet模型与之前笔记中的vgg模型不同,需要我们直接覆盖掉最后的全连接层先看一下resnet模型的结构:我们需要先将所有的参数都设置成requires_grad=False然后再重新定义fc层,并覆盖掉原来的。重新定义的
  • 2024-06-04笔记7:训练过程封装(代码模板)
    转自:https://www.cnblogs.com/miraclepbc/p/14335456.html相关包importtorchimportpandasaspdimportnumpyasnpimportmatplotlib.pyplotaspltfromtorchimportnnimporttorch.nn.functionalasFfromtorch.utils.dataimportTensorDatasetfromtorch.utils.
  • 2024-06-04学习笔记8:全连接网络实现MNIST分类(torch内置数据集)
    转自:https://www.cnblogs.com/miraclepbc/p/14344935.html相关包导入importtorchimportpandasaspdimportnumpyasnpimportmatplotlib.pyplotaspltfromtorchimportnnimporttorch.nn.functionalasFfromtorch.utils.dataimportTensorDatasetfromtorch.ut
  • 2024-06-04学习笔记9:卷积神经网络实现MNIST分类(GPU加速)
    转自:https://www.cnblogs.com/miraclepbc/p/14345342.html相关包导入importtorchimportpandasaspdimportnumpyasnpimportmatplotlib.pyplotaspltfromtorchimportnnimporttorch.nn.functionalasFfromtorch.utils.dataimportTensorDatasetfromtorch.ut
  • 2024-06-04笔记5:TensorDataset、DataLoader及数据集划分
    TensorDataset转自:https://www.cnblogs.com/miraclepbc/p/14333299.html导入相关包fromtorch.utils.dataimportTensorDataset特征与标签合并HRdataset=TensorDataset(X,Y)模型训练forepochinrange(epochs):foriinrange(num_batch):x,y=HRda
  • 2024-05-30神经网络常见参数解释:epoch、batch、batch size、step、iteration
      本文介绍在机器学习、深度学习的神经网络模型中,epoch、batch、batchsize、step与iteration等名词的具体含义。  epoch:表示将训练数据集中的所有样本都过一遍(且仅过一遍)的训练过程。在一个epoch中,训练算法会按照设定的顺序将所有样本输入模型进行前向传播、计算损失、反向
  • 2024-05-28transformer的Pytorch简易实现
    Transformer(Pytorch)fromscratchcodebyTaeHwanJung(JeffJung)@graykode,DerekMiller@dmmiller612,modifiedbyshwei;modifiedagainbyLittleHenryReference:https://blog.csdn.net/BXD1314/article/details/126187598?spm=1001.2014.3001.5506https://bl
  • 2024-05-10记录一次微调大模型
    (chat)root@dsw-372547-675546dd46-gjcqb:/mnt/workspace/ChatGLM3/finetune_demo#pythonfinetune_hf.pyformatted_data//mnt/workspace/ChatGLM3/chatglm3-6bconfigs/lora.yamlyesSettingeos_tokenisnotsupported,usethedefaultone.Settingpad_tokeni
  • 2024-05-06MLP实现波士顿房屋价格回归任务
    1.数据集波士顿房屋价格.csv文件,文件中的数据有可能不完整,部分数据如下:CRIM,ZN,INDUS,CHAS,NOX,RM,AGE,DIS,RAD,TAX,PTRATIO,LSTAT,MEDV0.00632,18,2.31,0,0.538,6.575,65.2,4.09,1,296,15.3,4.98,240.02731,0,7.07,0,0.469,6.421,78.9,4.9671,2,242,17.8,9.14,21.60.02
  • 2024-05-06动手学深度学习——CNN应用demo
    CNN应用demoCNN实现简单的手写数字识别importtorchimporttorch.nn.functionalasFfromtorchvisionimportdatasets,transformsfromtqdmimporttqdmtorch.zeros(8)defrelu(x):returntorch.clamp(x,min=0)deflinear(x,weight,bias):out=torch.matmul
  • 2024-04-03wandb原来是可以网络直连的,国内可以无障碍使用
    一直不是很常使用神经网络训练可视化的工具,包括:tensorboard,等等,wandb平时也是直接就忽略,不过最近无意间看了看这个效果,感觉还是不错的,于是尝试了一下。网上很多人说这个工具服务器在美国,因此我们无法直接访问,不过我近日使用的时候发现并没有这个问题,在国内也可以无障碍的使用。
  • 2024-04-01(10-2)目标检测:基于YOLO的目标检测
    10.2基于YOLO的目标检测YOLO(YouOnlyLookOnce)是一种基于深度学习的目标检测算法,它具有实时性和高准确性的特点。YOLO算法通过单个神经网络同时完成目标定位和分类,以极高的速度在图像或视频中检测多个目标物体。YOLOv5是YOLO算法的一个版本,它在原始的YOLO算法基础上进行了
  • 2024-03-2610. 一起学习机器学习 -- Convolutional Neural Networks (CNNs)
    ConvolutionalNeuralNetworks(CNNs)ThepurposeofthisnotebookistopracticeimplementingandtrainingCNNs.Westartwitha1-dimensionalconvolutionallayerinNumPy.WewillthenusePyTorch,anoptimisedmachinelearningframeworkforPythonbas
  • 2024-03-19Python环境下基于注意力机制的小样本轴承故障诊断
    传统的基于特征提取与分类相结合的轴承智能诊断算法,对信号处理要求很高的专家经验,既费时又缺乏通用性。基于深度学习的智能轴承故障诊断方由于具有强大的特征提取能力,避免了繁琐复杂的特征提取工作,但是大多数研究都是在标准数据集下进行的,这意味着模型能够使用足量的数据进行训