• 2025-01-03如何使用建筑物变化检测算法的Baseline工程 ,使用PyTorch框架,并选择U-Net来进行二分类任务(变化_不变)Baseline工程将基于深度学习方法来检测建筑物的变化
    建筑物变化检测算法baseline工程使用PyTorch框架,并选择U-Net来进行二分类任务(变化/不变)Baseline工程将基于深度学习方法来检测建筑物的变化备注:博客所有文章代码仅供参考!如何使用建筑物变化检测算法的Baseline工程,一个详细的步骤和代码示例。这个Baseline工程将基于深
  • 2025-01-03利用MATLAB实现了视频图像行人识别与检测
    利用MATLAB实现了视频图像行人识别与检测资源文件列表piotr_toolbox/bbNms.m , 8611piotr_toolbox/pNms.rar , 22300piotr_toolbox/toolbox/channels/chnsCompute.m , 9239piotr_toolbox/toolbox/channels/chnsPyramid.m , 10558piotr_toolbox/toolbox/channels/chn
  • 2025-01-03ResNet:Deep Residual Learning for Image Recognition
    摘要残差网络:一种深度学习中的神经网络结构,通过引入跳跃连接来解决深度神经网络中的梯度消失和梯度爆炸问题。ResNet(residualnetworks)的简单介绍输入层学习参差函数,而不是学习未残差的函数。以及在ImageNet和COCO数据集上取得好的成绩。1介绍揭示了网络的深度对于训练结果非
  • 2024-12-30每天40分玩转Django:Django Channels
    DjangoChannels一、今日学习内容概览知识模块重点内容难度系数WebSocket基础WebSocket协议、连接建立、消息传输★★★★☆消息路由URL路由配置、消费者编写、消息处理★★★★☆Channels配置项目配置、ASGI应用、ChannelLayers★★★☆☆二、WebSocket基础1.环境配
  • 2024-12-26残差网络
    1.什么是残差网络?残差网络(ResNet)是一种特别的神经网络结构,它解决了一个非常重要的问题:当我们把网络变得越来越深时,性能不升反降的问题。打个比方:你让一个学生做很简单的数学题,他可能做得很好;但你让他做一百道题,他可能会累到答错很多,结果总分变低。这种情况在深度学习里就叫梯
  • 2024-12-22Maxpooling 深度解析:原理、应用与优化
    引言在深度学习的世界里,卷积神经网络(CNN)已经成为图像识别、语音处理和自然语言处理等领域的核心模型。而Maxpooling作为CNN中的重要操作之一,通过下采样减少数据维度,在保留关键特征的同时显著降低计算复杂度。本文将深入探讨Maxpooling的原理、应用场景,并结合具体实例
  • 2024-12-22(即插即用模块-特征处理部分) 十二、(2023) SDM 语义差异引导模块
    文章目录1、SemanticDifferenceGuidanceModule2、代码实现paper:PnPNet:Pull-and-PushNetworksforVolumetricSegmentationwithBoundaryConfusionCode:https://github.com/AlexYouXin/PnPNet1、SemanticDifferenceGuidanceModule为了解决以下几个问
  • 2024-12-20深度可分离卷积原理分析回顾、代码实践与优缺点对比学习记录
    最近在项目开发中有需要用到轻量化相关的内容,那必定是绕不开深度可分离卷积的,这里记录自己的学习记录和实践内容。深度可分离卷积(DepthwiseSeparableConvolution)是一种轻量化的卷积操作,广泛应用于移动设备和嵌入式设备上的深度学习模型(如MobileNet和Xception)。它将标准
  • 2024-12-13转载:【AI系统】ShuffleNet 系列
    本文会介绍ShuffleNet系列,重点在于其模型结构的轻量化设计,涉及如何降低深度网络计算量,在本文中会着重会讲解逐点分组卷积(PointwiseGroupConvolution)和通道混洗(ChannelShuffle)两种新的运算,而V2版本则会从设备运算速度方面考虑将网络进行轻量化。ShuffleNetV1模型Shu
  • 2024-12-13转载:【AI系统】FBNet 系列
    本文主要介绍FBNet系列,在这一篇会给大家带来三种版本的FBNet网络,从基本NAS搜索方法开始,到v3版本的独特方法。在本文中读者会了解到如何用NAS搜索出最好的网络和训练参数。FBNetV1模型FBNetV1:完全基于NAS搜索的轻量级网络系列,结合了DNAS和资源约束。采用梯度优
  • 2024-12-13转载:【AI系统】MobileVit 系列
    自VisionTransformer出现之后,人们发现Transformer也可以应用在计算机视觉领域,并且效果还是非常不错的。但是基于Transformer的网络模型通常具有数十亿或数百亿个参数,这使得它们的模型文件非常大,不仅占用大量存储空间,而且在训练和部署过程中也需要更多的计算资源。所以在本
  • 2024-12-13转载:【AI系统】GhostNet 系列
    本文主要会介绍GhostNet系列网络,在本文中会给大家带来卷积结构的改进方面的轻量化,以及与注意力(self-attention)模块的进行结合,部署更高效,更适合移动计算的GhostNetV2。让读者更清楚的区别V2与V1之间的区别。GhostNetV1模型GhostNetV1:提供了一个全新的GhostModule,
  • 2024-12-13转载:【AI系统】ShuffleNet 系列
    本文会介绍ShuffleNet系列,重点在于其模型结构的轻量化设计,涉及如何降低深度网络计算量,在本文中会着重会讲解逐点分组卷积(PointwiseGroupConvolution)和通道混洗(ChannelShuffle)两种新的运算,而V2版本则会从设备运算速度方面考虑将网络进行轻量化。ShuffleNetV1模型Shu
  • 2024-12-13转载:【AI系统】FBNet 系列
    本文主要介绍FBNet系列,在这一篇会给大家带来三种版本的FBNet网络,从基本NAS搜索方法开始,到v3版本的独特方法。在本文中读者会了解到如何用NAS搜索出最好的网络和训练参数。FBNetV1模型FBNetV1:完全基于NAS搜索的轻量级网络系列,结合了DNAS和资源约束。采用梯度优
  • 2024-12-13转载:【AI系统】MobileVit 系列
    自VisionTransformer出现之后,人们发现Transformer也可以应用在计算机视觉领域,并且效果还是非常不错的。但是基于Transformer的网络模型通常具有数十亿或数百亿个参数,这使得它们的模型文件非常大,不仅占用大量存储空间,而且在训练和部署过程中也需要更多的计算资源。所以在本
  • 2024-12-13转载: 【AI系统】GhostNet 系列
    本文主要会介绍GhostNet系列网络,在本文中会给大家带来卷积结构的改进方面的轻量化,以及与注意力(self-attention)模块的进行结合,部署更高效,更适合移动计算的GhostNetV2。让读者更清楚的区别V2与V1之间的区别。GhostNetV1模型GhostNetV1:提供了一个全新的GhostModule,
  • 2024-12-13转载:【AI系统】MobileVit 系列
    自VisionTransformer出现之后,人们发现Transformer也可以应用在计算机视觉领域,并且效果还是非常不错的。但是基于Transformer的网络模型通常具有数十亿或数百亿个参数,这使得它们的模型文件非常大,不仅占用大量存储空间,而且在训练和部署过程中也需要更多的计算资源。所以在本
  • 2024-12-13转载:【AI系统】GhostNet 系列
    本文主要会介绍GhostNet系列网络,在本文中会给大家带来卷积结构的改进方面的轻量化,以及与注意力(self-attention)模块的进行结合,部署更高效,更适合移动计算的GhostNetV2。让读者更清楚的区别V2与V1之间的区别。GhostNetV1模型GhostNetV1:提供了一个全新的GhostModule,
  • 2024-12-13转载:【AI系统】ShuffleNet 系列
    本文会介绍ShuffleNet系列,重点在于其模型结构的轻量化设计,涉及如何降低深度网络计算量,在本文中会着重会讲解逐点分组卷积(PointwiseGroupConvolution)和通道混洗(ChannelShuffle)两种新的运算,而V2版本则会从设备运算速度方面考虑将网络进行轻量化。ShuffleNetV1模型Shu
  • 2024-12-12转载:【AI系统】ShuffleNet 系列
    本文会介绍ShuffleNet系列,重点在于其模型结构的轻量化设计,涉及如何降低深度网络计算量,在本文中会着重会讲解逐点分组卷积(PointwiseGroupConvolution)和通道混洗(ChannelShuffle)两种新的运算,而V2版本则会从设备运算速度方面考虑将网络进行轻量化。ShuffleNetV1模型Shu
  • 2024-12-12转载:【AI系统】FBNet 系列
    本文主要介绍FBNet系列,在这一篇会给大家带来三种版本的FBNet网络,从基本NAS搜索方法开始,到v3版本的独特方法。在本文中读者会了解到如何用NAS搜索出最好的网络和训练参数。FBNetV1模型FBNetV1:完全基于NAS搜索的轻量级网络系列,结合了DNAS和资源约束。采用梯度优
  • 2024-12-01RK3568平台开发系列讲解(DMA篇)DMA Engine硬件介绍
  • 2024-11-28PIDNet-PagFM-特征融合
    importtorch.nnasnnimporttorchimporttorch.nn.functionalasFclassPagFM(nn.Module):#选择性特征融合直接融合细节和低频上下文容易导致细节丢失def__init__(self,in_channels,mid_channels,after_relu=False,with_channel=False,BatchNorm=nn.Bat
  • 2024-11-26Group Convolution(分组卷积)
    分组卷积的优点:减少参数数量:在分组卷积中,每个分组只与一部分输入通道进行卷积运算,这意味着模型的参数数量会减少。例如,如果一个卷积层有8个输入通道和8个输出通道,且不使用分组,那么将有64个权重参数(8个输入通道*8个输出通道)。如果使用2组分组卷积,每个分组将只有4个输入通道
  • 2024-11-26SCTNet-带状卷积
    importtorch.nnasnnimporttorchimporttorch.nn.functionalasFclassConvolutionalAttention(nn.Module):def__init__(self,in_channels,out_channels,inter_channels,num_heads=8):