- 2025-01-05CBAM (Convolutional Block Attention Module)注意力机制详解
定义与起源CBAM(ConvolutionalBlockAttentionModule)是一种专为卷积神经网络(CNN)设计的注意力机制,旨在增强模型对关键特征的捕捉能力。这一创新概念首次出现在2018年的研究论文《CBAM:ConvolutionalBlockAttentionModule》中。CBAM的核心思想是在通道和空间两个维
- 2025-01-01论文精读:CAUSAL DISCOVERY FROM TIME-SERIES DATA WITH SHORT-TERM INVARIANCE-BASED CONVOLUTIONAL NE
CAUSALDISCOVERYFROMTIME-SERIESDATAWITHSHORT-TERMINVARIANCE-BASEDCONVOLUTIONALNEURALNETWORKS摘要与非时间序列数据的因果发现相比,时间序列数据的因果发现需要更多的序列化样本和更长的观测时间步。提出了一种新的基于梯度的因果发现方法STIC,利用卷积神经
- 2024-12-24Deep Learning Convolutional Neural Networks
LapProject–DeepLearningObjectiveThisexperimentaimstohelpstudentsunderstandConvolutionalNeuralNetworks(CNNs)andtheirapplicationsindeeplearningbyimplementinganimagerecognitionmodel.StudentswillusetheCombinedCOCOdataset,do
- 2024-12-16AlexNet: ImageNet Classification with Deep Convolutional Neural Networks
摘要:在ImageNet竞赛中,主要使用8层(5个卷积层、三个全连接层),其中在第1,2,5层使用最大池化,三个全连接层使用softmax非线性激活。实现图像分类,正是AlexNet网络模型的结构,在传统的神经网络模型中,使用非饱和和高效的CPU来卷积操作,同时也是用“dropout”(正则化)来减少过拟合。1介绍对于
- 2024-12-01【page cache】回写机制
writeback回写bufferIO通过pagecache进行缓存,减少对底层存储设备的直接读写,同时能够提高整体性能写入到pagecache的数据不会立刻写入后端设备,而是标记为“脏”,并被加入到脏页链表,后续由内核中的回写进程周期性的将脏页写回到底层存储设备下面主要分析pagecache回写
- 2024-11-28大核选择卷积模块 LSK
importtorchimporttorch.nnasnn#Github地址:https://github.com/zcablii/Large-Selective-Kernel-Network#论文地址:https://openaccess.thecvf.com/content/ICCV2023/papers/Li_Large_Selective_Kernel_Network_for_Remote_Sensing_Object_Detection_ICCV_2023_paper.pdfc
- 2024-11-24UnityShaderLab 实现两张图片切换
实现思路:在顶点着色器中获取物体在世界空间下的某一轴的坐标传递给片元着色器,o.val=v.vertex.x;然后在片元着色器中采样两张图片,根据输入的偏移值的更换两张图片的显示。fixed4t1=tex2D(_MainTex,i.texcoord);fixed4t2=tex2D(_SubTex,i.texcoord1);
- 2024-10-15吴恩达深度学习笔记:卷积神经网络(Foundations of Convolutional Neural Networks)3.5-3.6
目录第四门课卷积神经网络(ConvolutionalNeuralNetworks)第三周目标检测(Objectdetection)3.5BoundingBox预测(Boundingboxpredictions)3.6交并比(Intersectionoverunion)第四门课卷积神经网络(ConvolutionalNeuralNetworks)第三周目标检测(Objectdetection
- 2024-10-15自然语言处理之语音识别:Convolutional Neural Networks (CNN):深度学习与神经网络基础
自然语言处理之语音识别:ConvolutionalNeuralNetworks(CNN):深度学习与神经网络基础深度学习与神经网络基础subdir1.1:神经网络的基本概念神经网络是一种模仿人脑神经元结构的计算模型,用于处理复杂的数据模式识别和预测问题。它由输入层、隐藏层和输出层组成,每一层
- 2024-10-15自然语言处理之语音识别:Convolutional Neural Networks(CNN)与迁移学习_
自然语言处理之语音识别:ConvolutionalNeuralNetworks(CNN)与迁移学习自然语言处理与语音识别基础自然语言处理概览自然语言处理(NLP)是人工智能领域的一个重要分支,它关注如何使计算机能够理解、解释和生成人类语言。NLP技术广泛应用于文本分类、情感分析、机器翻译、问
- 2024-10-09CS 259 Accelerating Convolutional Neural Network
Fall2024CS259Lab1AcceleratingConvolutionalNeuralNetwork(CNN)onFPGAsusingMerlinCompilerDueOctober911:59pmDescriptionYourtaskistoacceleratethecomputationoftwolayersinaconvolutionalneuralnetwork(CNN)usingahigh-levelsynt
- 2024-10-02【深度学习基础模型】卷积神经网络(Convolutional Neural Networks, CNN)详细理解并附实现代码。
【深度学习基础模型】卷积神经网络(ConvolutionalNeuralNetworks,CNN)详细理解并附实现代码。【深度学习基础模型】卷积神经网络(ConvolutionalNeuralNetworks,CNN)详细理解并附实现代码。文章目录【深度学习基础模型】卷积神经网络(ConvolutionalNeuralNetworks,
- 2024-09-29吴恩达深度学习笔记:卷积神经网络(Foundations of Convolutional Neural Networks)2.5-2.6
目录第四门课卷积神经网络(ConvolutionalNeuralNetworks)第二周深度卷积网络:实例探究(Deepconvolutionalmodels:casestudies)2.5网络中的网络以及1×1卷积(NetworkinNetworkand1×1convolutions)2.6谷歌Inception网络简介(Inceptionnetworkmotivation)
- 2024-09-19论文阅读:Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks
Abstract背景:希望能缩小CNN在监督学习和无监督学习之间成功应用的差距。贡献:引入了一类称为深度卷积生成对抗网络(DCGAN)的CNN。结果:DCGAN在生成器和判别器中都能从对象到场景学习表示层次结构。1.Introduction贡献:提出DCGAN用于图像分类任务,展示其性能对滤波器
- 2024-09-06What is Convolutional Neural Network(CNN)?
笔记核心部分摘抄以及自己的理解[附有样例,可以轻松理解]:卷积网络的卷积层中使用了卷积操作,这个操作可以捕捉到图像中的局部特征而不受其位置的影响。在外围边缘补充若干圈0,方便从初始位置以步长为单位可以刚好滑倒末尾位置,通俗地讲就是为了总长能被步长整除。池化层通过减
- 2024-08-23YOLOv8改进 | 融合改进 | C2f融合EffectiveSE-Convolutional【完整代码 + 小白必备】
秋招面试专栏推荐 :深度学习算法工程师面试问题总结【百面算法工程师】——点击即可跳转
- 2024-08-20神经网络之卷积篇:详解单层卷积网络(One layer of a convolutional network)
详解单层卷积网络如何构建卷积神经网络的卷积层,下面来看个例子。已经写了如何通过两个过滤器卷积处理一个三维图像,并输出两个不同的4×4矩阵。假设使用第一个过滤器进行卷积,得到第一个4×4矩阵。使用第二个过滤器进行卷积得到另外一个4×4矩阵。最终各自形成一个卷积神经网络
- 2024-08-15吴恩达深度学习笔记:卷积神经网络(Foundations of Convolutional Neural Networks)1.5-1.6
目录第四门课卷积神经网络(ConvolutionalNeuralNetworks)第一周卷积神经网络(FoundationsofConvolutionalNeuralNetworks)1.5卷积步长(Stridedconvolutions)1.6三维卷积(Convolutionsovervolumes)第四门课卷积神经网络(ConvolutionalNeuralNetworks)第一周
- 2024-08-03李沐动手学深度学习V2-chapter_convolutional-modern
李沐动手学深度学习V2文章内容说明本文主要是自己学习过程中的随手笔记,需要自取课程参考B站:https://space.bilibili.com/1567748478?spm_id_from=333.788.0.0课件等信息原视频简介中有卷积神经网络经典卷积神经网络LeNet深度卷积神经网络AlexNetAlexNet与LeNet对比:1.
- 2024-08-02CIFAR-10 Implementing a Convolutional Neural Network
Coding Assignment 4: Implementing aConvolutional Neural Network for CIFAR-10using KerasJuly 28, 20241 OverviewInthisassignment,youwillimplement a Convolutional Neural Network (CNN) to classify images from the CIFAR-10 dataset
- 2024-07-10CvT:微软提出结合CNN的ViT架构 | 2021 arxiv
CvT将Transformer与CNN在图像识别任务中的优势相结合,从CNN中借鉴了多阶段的层级结构设计,同时引入了ConvolutionalTokenEmbedding和ConvolutionalProjection操作增强局部建模能力,在保持计算效率的同时实现了卓越的性能。此外,由于卷积的引入增强了局部上下文建模能力,CvT不再需要
- 2024-07-09TextCNN: Convolutional Neural Networks for Sentence Classification
本文是CNN应用在NLP领域的开山之作。TextCNN的成功并不是网络结构的成功,而是通过引入已经训练好的词向量在多个数据集上达到了超越benchmark的表现,证明了构造更好的embedding,是提升NLP各项任务的关键能力。作者做了一系列实验,这些实验使用卷积神经网络(CNN)在预训练的词向量之上
- 2024-06-11Combining Recurrent, Convolutional, and Continuous-time Models with Linear State-Space Layers
目录概符号说明LSSL和其它方法的联系代码GuA.,JohnsonI.,GoelK.,SaabK.,DaoT.,RudraA.,andReC.Combiningrecurrent,convolutional,andcontinuous-timemodelswithlinearstate-spacelayers.NeurIPS,2021.Statespacerepresentaion-wiki.概Mamba