nN
  • 2024-11-08Densenet模型花卉图像分类
    项目源码获取方式见文章末尾!600多个深度学习项目资料,快来加入社群一起学习吧。《------往期经典推荐------》项目名称1.【基于CNN-RNN的影像报告生成】2.【卫星图像道路检测DeepLabV3Plus模型】3.【GAN模型实现二次元头像生成】4.【CNN模型实现mnist手写数字识别】
  • 2024-11-08Multi-Scale and Detail-Enhanced Segment Anything-1-MEEM-差分边缘增强模块
    `importtorch.nnasnnimporttorchclassMEEM(nn.Module):definit(self,in_dim,hidden_dim,width=4,norm=nn.BatchNorm2d,act=nn.GELU):super().init()self.in_dim=in_dimself.hidden_dim=hidden_dimself.width=widthself.in_conv=nn.Sequential(nn
  • 2024-11-0820241004 动态规划选讲
    20241004动态规划选讲P6669[清华集训2016]组合数问题使用Lucas定理:\(C_n^m\equivC_{\lfloor\frac{n}{p}\rfloor}^{\lfloor\frac{m}{p}\rfloor}C_{n\bmodp}^{m\bmodp}(\bmodp)\)。这等价于将\(n,m\)在\(k\)进制下的每一位的组合数相乘。要想使\(k\|\C_n^m\),就
  • 2024-11-08万字长文解读空间、通道注意力机制机制和超详细代码逐行分析(SE,CBAM,SGE,CA,ECA,TA)
    目录一、SE(Squeeze-and-excitation)注意力什么是SE注意力?SE注意力的步骤1.压缩(Squeeze)2.激励(Excitation)3.重标定(Scale/Reweight)结构代码二、CBAM(ConvolutionalBlockAttentionModule)什么是CBAM注意力?CBAM的组成部分1.通道注意力(ChannelAttention)2.空间注意力(S
  • 2024-11-07Multi-Scale and Detail-Enhanced Segment Anything-1-LMSA-轻量级多尺度适配器
    `importtorch.nnasnnimporttorchimporttorch.nn.functionalasFclassModifyPPM(nn.Module):definit(self,in_dim,reduction_dim,bins):super(ModifyPPM,self).init()self.features=[]forbininbins:self.features.append(nn.Sequential(nn.Adaptive
  • 2024-11-07【YOLOv11改进 - 注意力机制】EMA(Efficient Multi-Scale Attention):基于跨空间学习的高效多尺度注意力
    介绍摘要通道或空间注意力机制在许多计算机视觉任务中表现出显著的效果,可以生成更清晰的特征表示。然而,通过通道维度缩减来建模跨通道关系可能会对提取深度视觉表示带来副作用。本文提出了一种新颖高效的多尺度注意力(EMA)模块。该模块着重于保留每个通道的信息并减少计算开销,我
  • 2024-11-06李沐《动手学深度学习》多层感知机python代码实现
    一、多层感知机手动实现#多层感知机的手动实现%matplotlibinlineimporttorchfromtorchimportnnfromd2limporttorchasd2lbatch_size=256train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)num_inputs,num_outputs,num_first_hiddens=
  • 2024-11-06(六)OpenPCDet当中Pointpillars之添加全局注意力机制 (Global Attention Mechanism)-深度学习增强目标检测(已更新)
    1.什么是全局注意力机制?      全局注意力机制是一种在深度学习中广泛应用的技术,尤其在激光雷达目标检测中具有重要作用。它通过计算输入数据中各元素之间的相关性,动态地确定在进行目标检测时需要关注哪些部分。全局注意力机制的关键在于通过注意力得分对不同输入部分进
  • 2024-11-06P1534 不高兴的津津(升级版)
    P1534不高兴的津津(升级版)通过37.47k时间限制1.00s内存限制125.00MB提交答案加入题单做题计划(首页)个人题单团队题单保存题目提供者情到深处人孤独难度入门历史分数100 提交记录  查看题解标签洛谷原创 查看算法标签进入讨论版相关讨论 查看讨论推荐题
  • 2024-11-05【征程 6 工具链性能分析与优化-2】模型性能优化建议
    01引言为了应对低、中、高阶智驾场景,以及当前AI模型在工业界的应用趋势,地平线推出了征程6系列芯片。在软硬件架构方面,征程6不仅保持了对传统CNN网络的高效支持能力,还强化了对Transformer类型网络的支持,主要表现为大幅强化了对逐点计算、数据搬运的能力。基于征程6
  • 2024-11-03关于深度学习模型不收敛问题解决办法
    1.问题重现笔者在训练Vgg16网络时出现不收敛问题,具体描述为训练集准确率和测试集准确率一直稳定于某一值,如下图所示。2.可能的原因2.1数据问题噪声数据。不平衡的数据集、含有噪声或异常值的数据可能导致模型难以学习,尝试更换数据集,出现这种问题比较难办。数据预处理
  • 2024-11-03【语义分割|代码解析】CMTFNet-4: CNN and Multiscale Transformer Fusion Network 用于遥感图像分割!
    【语义分割|代码解析】CMTFNet-4:CNNandMultiscaleTransformerFusionNetwork用于遥感图像分割!【语义分割|代码解析】CMTFNet-4:CNNandMultiscaleTransformerFusionNetwork用于遥感图像分割!文章目录【语义分割|代码解析】CMTFNet-4:CNNandMultiscale
  • 2024-11-02深度学习周报(10.28-11.3)
    目录摘要Abstract1卷积神经网络(ConvolutionaNeuralNetwork,CNN)1.1什么是卷积神经网络1.2感受野(ReceptiveField)1.3参数共享(ParameterSharing)1.4卷积层(ConvolutionalLayer)1.5 池化(Pooling)1.6 CNN整体流程2CNN实例——手写数字识别2.1 数据集
  • 2024-11-02常用的神经网络实现
    VGG16fromtorchimportnnclassVGG(nn.Module):"""一共6个版本,最常用VGG16VGG采用五组卷积,三个全连接,最后用Softmax分类VGG显著特点:每次经过池化层maxpool后特征图尺寸减小一倍,,通道数增加一倍(最后一个池化层除外)"""def__init__(self,num_class
  • 2024-11-02神经网络工具nn
    实现神经网络torch将张量转换为torch.cuda.TensorFloat并在GPU上进行计算torch.autograd构建计算图并自动获取梯度torch.nn具有共享层和损失函数的神经网络库torch.optim通用优化算法神经网络基本结构网络层:神经网络的基本模型网络模型:层构成的网络损失函数:参数学习的
  • 2024-11-02生成对抗网络(GAN)如何推动AIGC的发展
    公主请阅GAN的深入研究与技术细节1.条件生成对抗网络(CGAN)代码示例:条件生成对抗网络2.生成对抗网络变种(WGAN)代码示例:WGAN实现3.逐步生成对抗网络(ProgressiveGrowingGAN)4.超分辨率生成对抗网络(SRGAN)代码示例:SRGAN的基本框架GAN的伦理与社会影响1.版权与知识产
  • 2024-11-01深度学习
    卷积层提取数据特征,矩阵点乘求和运算importtorchfromtorchimportnnconv=nn.Conv2d(in_channels=1,out_channels=1,kernel_size=3,stride=1,padding=1,dilation=1,groups=1,bias=True)print(conv)"""output:Conv2d(1,1,kernel_size=(3,3
  • 2024-11-01杂题选做1
    杂题选做1[ARC112F]DieSiedler注意到如果存在某一个\(j\)满足这种牌的数量大于等于\(2j\),那么一定会兑换为\(j\bmodn+1\)的牌。所以我们考虑这个过程的逆过程,就是将一张牌\(j\)换成\((j-1)!2^{j-1}\)张\(1\)号牌,最终全部的牌都被转化为了\(1\)号牌,但是结果并
  • 2024-11-01【YOLOv11改进 - 注意力机制】LSKA(Large Separable Kernel Attention):大核分离卷积注意力模块
    YOLOv11目标检测创新改进与实战案例专栏点击查看文章目录:YOLOv11创新改进系列及项目实战目录包含卷积,主干注意力,检测头等创新机制以及各种目标检测分割项目实战案例点击查看专栏链接:YOLOv11目标检测创新改进与实战案例@目录YOLOv11目标检测创新改进与实战案例专栏介
  • 2024-10-31(ICCV2023)多尺度空间特征提取模块,有效涨点,即插即用
    题目:SAFMN:Spatially-AdaptiveFeatureModulationforEfficientImageSuper-Resolution期刊:CVPR(ConferenceonComputerVisionandPatternRecognition)GitHub地址:https://github.com/sunny2109/SAFMN年份:2023作者单位:TheChineseUniversityofHongKong(CUHK)
  • 2024-10-31小波下采样,即插即用
    论文:Haarwaveletdownsampling:AsimplebuteffectivedownsamplingmoduleGitHub地址:https://github.com/apple1986/HWD论文地址:                    https://www.sciencedirect.com/science/article/pii/S0031320323005174 
  • 2024-10-30YOLOv8改进 - 注意力篇 - 引入GAM注意力机制
    #YOLO##目标检测##计算机视觉#一、本文介绍作为入门性篇章,这里介绍了GAM注意力在YOLOv8中的使用。包含GAM原理分析,GAM的代码、GAM的使用方法、以及添加以后的yaml文件及运行记录。二、GAM原理分析GAM官方论文地址:文章GAM官方代码地址:​GAM注意力机制:GAM采用了顺序的通
  • 2024-10-30Pytorch学习--神经网络--线性层及其他层
    一、正则化层torch.nn.BatchNorm2dtorch.nn.BatchNorm2d(num_features,eps=1e-05,momentum=0.1,affine=True,track_running_stats=True,device=None,dtype=None)正则化的意义:加速训练收敛:在每一层网络的输入上执行批量归一化可以保持数据的分布稳定,从而减小梯度
  • 2024-10-30YOLO(You Only Look Once)目标检测系列 - YOLOv1
    今天开始更新YOLO系列的文章,并且配套详细的代码,供大家使用。YOLO(YouOnlyLookOnce)目标检测系列-YOLOv1一、引言YOLO(YouOnlyLookOnce)是一个高效的目标检测系统,能够在单次前向传递中检测图像中的多个对象。它在速度和准确性之间取得了良好的平衡,适合于实时应用。本