• 2024-09-29优化器:从SGD到Adam到AdamW
    1.SGD随机梯度下降(stochasticgradientdescent,SGD)输入数据为(x,y)组成的pair,模型参数是\(W\),随机选择一批样本组成一个batch,输入模型计算loss:\(L=f(X,Y;W)\),并求出梯度,更新参数时:\(W=W-lr*\frac{\partialL}{\partialW}\)这就是随机梯度下降。2.Adam本段参考视频:https
  • 2024-09-24C++中的类型推断机制
    1.decltype的作用decltype是C++11引入的一个关键字,用来推断表达式的类型。它返回的是表达式的精确类型,包括引用和const限定符等。例子:intx=5;decltype(x)y=x;//y的类型是int在这个例子中,decltype(x)返回int,因为x是一个int类型的变量,所以y的类型也被推
  • 2024-04-14[深度学习]L2正则化和权重衰退(Weight Decay)
    L2正则化和权重衰退(WeightDecay)一、权重衰退介绍1.什么是权重衰减/权重衰退——weight_decayL2正则化主要作用是:解决过拟合,在损失函数中加入L2正则化项2.L2范数L2范数,也被称作欧几里得范数或者Frobenius范数(当应用于矩阵时),是最常用的向量范数之一,用于衡量向量元
  • 2024-03-18Optimizer: SGD, SGD with Momentum, Adagrad, RMSProp, Adam, AdamW
  • 2024-01-22神经网络优化篇:详解学习率衰减(Learning rate decay)
    学习率衰减加快学习算法的一个办法就是随时间慢慢减少学习率,将之称为学习率衰减,来看看如何做到,首先通过一个例子看看,为什么要计算学习率衰减。假设要使用mini-batch梯度下降法,mini-batch数量不大,大概64或者128个样本,在迭代过程中会有噪音(蓝色线),下降朝向这里的最小值,但是不会精
  • 2023-11-16mask-rcnn_swin-t-p4-w7_fpn_1x_coco.py 里面的内容
    _base_=['../_base_/models/mask-rcnn_r50_fpn.py','../_base_/datasets/coco_instance.py','../_base_/schedules/schedule_1x.py','../_base_/default_runtime.py']pretrained='https://github.com/Swi
  • 2023-10-06Numpy手撸神经网络实现线性回归
    Numpy手撸神经网络实现线性回归简介在深度学习理论学习之后,我们常常会直接使用深度学习框架(如PaddlePaddle、PyTorch或TensorFlow)来构建模型,而忽略了底层各种层结构的实现。但对于深度学习的学习者来说,是否能够亲手编写一个简单的模型呢?本文将介绍如何使用NumPy手动实现一个神经
  • 2023-05-26matlab 构造逐渐震荡衰减的函数
    t=0:0.01:10;%时间范围freq=5;%振荡频率amp=1;%初始振幅duration=5;%振荡持续时间decay_rate=0.1;%衰减速率y=amp*sin(2*pi*freq*t).*exp(-decay_rate*t);%构造函数plot(t,y);%绘制图形xlabel('时间');ylabel('振幅');title('逐渐震荡衰减函数');
  • 2022-12-11调参秘籍:BN层详解在tensorflow框架下添加正则化约束l1、l2的方法
    批量归一化(BN:BatchNormalization:解决在训练过程中,中间层数据分布发生改变的问题,以防止梯度消失或爆炸、加快训练速度)1、为什么输入数据需要归一化(NormalizedData)?    
  • 2022-10-26权重衰减 - Weight Decay
    简述权重衰减(又称L2-正则化)是一种模型正则化(Regularzation)技术。原理首先,用权重向量的L2-范数来衡量模型函数的复杂度,这是对模型复杂度的量化。把上述L2-范数加入到训
  • 2022-09-19tf2自定义优化器
    #-*-coding:utf-8-*-fromtensorflow.python.eagerimportdef_functionfromtensorflow.python.frameworkimportopsfromtensorflow.python.keras.optimizer_v
  • 2022-08-31learning rate,exponential decay
         (96条消息)Python函数:学习率衰减tf.train.exponential_decay()_萌萌哒huo的博客-CSDN博客_python衰减函数     ln即学习率(learningrate)。
  • 2022-08-1442
    constraint限制    identification识别deceive欺骗contest竞赛motive动机July七月spoon匙cube立方discourage使气馁bet赌注 brush刷c