• 2024-11-05大神们分享的一些跑步的经验
    卷腰腹力量 练了一个月 核心发力跑的轻松心率自然不太高  加上练了练腿   我一般一周练两次腿(周日、周四),有比赛的那周除外,卷2-3次核心,这些东西看着很乏味枯燥,但是你坚持了以后就会跟别人不一样,可以避免受伤,而且跑起来也会很丝滑。睡觉:早睡早起,睡前手机一放,四大皆空
  • 2024-09-04卷积神经网络CNN
    非原创,转录自知乎https://zhuanlan.zhihu.com/p/156926543,仅作学习笔记之用。一、卷积神经网络1.定义  卷积神经网络(ConvolutionalNeuralNetworks)是一种包含卷积计算且具有深度结构的前馈神经网络,CNN具有表征学习的能力,能够按阶层对输入数据进行平移不变分类。表征
  • 2024-08-05YOLOv9改进系列,YOLOv9引入SPDConv(新颖的卷积),用于低分辨率图像和小物体目标,实现大幅度涨点
    前言卷积神经网络在许多计算机视觉任务中取得了显著成功,例如图像分类和目标检测。然而,在图像分辨率较低或目标较小的更困难任务中,它们的性能会迅速下降。在本文中,指出这根源于现有CNN架构中一个常见但有缺陷的设计,即使用了步幅卷积和/或池化层,这导致了细粒度信息的丢失以
  • 2024-03-31吴恩达2022机器学习专项课程(一) 4.4 学习率
    问题预览/关键词学习率太小有什么影响?学习率太大有什么影响?如果成本函数达到局部最小值,使用梯度下降还能继续最小化吗?为什么学习率固定,而最小化成本函数的步幅却越来越缓?如何选择合适的学习率?笔记1.学习率太小学习率太小,导数项会乘以非常小的数,梯度下降速度过慢,不符合尽
  • 2023-11-04机器学习——填充和步幅
    填充  步幅  
  • 2023-09-17《动手学深度学习 Pytorch版》 6.7 填充和步幅
    6.3.1填充虽然我们用的卷积核较小,每次只会丢失几像素,但是如果应用多层连续的卷积层,累积的像素丢失就会很多。解决此问题的方法为填充。填充后的输出形状将为\((n_h-k_h+p_h+1)\times(n_w-k_w+p_w+1)\)importtorchfromtorchimportnndefcomp_conv2d(conv2d,X):X
  • 2023-08-216.3 填充和步幅 & 卷积层的输出形状公式
    一.填充1.作用:为了防止丢失边缘像素。如240x240的像素图像,经过10层5x5卷积,变成了200x200像素。可以根据输出形状计算公式(w-k+1)x(h-k+1)计算得出。2.方法:最常用的方法是填充0。如下:3.公式:计算填充原图像后的输出形状假设填充p行(上面填充p/2行,下面填充p/2行),p列。输出大小为:w
  • 2023-08-06步幅与填充——pytorch
    importtorchfromtorchimportnndefcomp_conv2d(conv2d,x):#在维度前面加上通道数和批量大小数1x=x.reshape((1,1)+x.shape)#得到4维y=conv2d(x)#把前面两维去掉returny.reshape(y.shape[2:])#padding填充为1,左右conv2d=nn.Conv2d
  • 2023-07-306.3 填充和步幅
    填充 当卷积核的高度和宽度大于1时,卷积操作的输出的图像尺寸会变小,特别是在连续的多层卷积后,输出变得越来越小。这样一来,原始图像的边界丢失了许多有用的信息。填充是解决这个问题的一种办法,即,在输入图像的边界填充元素,通常是0.    通常,如果我们添加p<sub>h</sub>行填充
  • 2023-05-085-5汇聚层
    5-5汇聚层通常当我们处理图像时,我们希望逐渐降低隐藏表示的空间分辨率、聚集信息,这样随着我们在神经网络中层叠的上升,每个神经元对其敏感的感受野(输入)就越大。汇聚层,它具有双重目的:降低卷积层对位置的敏感性,同时降低对空间降采样表示的敏感性。最大汇聚层和平均汇聚层汇聚窗口
  • 2023-03-21StyleGAN 调整面部表情,让虚拟人脸更生动
    (✨目录)
  • 2023-01-08卷积神经网络编程基础|填充和步幅
    问题上一节课(​​https://www.zhihu.com/education/video-course/1647604835598092705?section_id=1647604843789894187​​)中介绍卷积层的互相关运算,并且使用了高宽为3的输
  • 2022-12-28填充和步幅
    目录1.填充2.步幅3.小结假设输入形状是\(n_h\timesn_w\),卷积核窗口形状是\(k_h\timesk_w\),则输出形状是\[(n_h-k_h+1)\times(n_w-k_w+1)\]这里介绍
  • 2022-09-26计算卷积层的输出
    输入张量(batch_size,input_channels,h,w)batch_size为批量大小input_channels为输入的featuremap的通道数h为张量的高w为张量的宽  卷积层为 : nn.Conv2d(input_c