首页 > 其他分享 >深度学习训练模型中的 Epoch,Batchsize,Iterations

深度学习训练模型中的 Epoch,Batchsize,Iterations

时间:2023-11-02 11:02:06浏览次数:51  
标签:迭代 训练 Batchsize epoch Batch Epoch Iterations 数据

GOOD POST

https://towardsdatascience.com/epoch-vs-iterations-vs-batch-size-4dfb9c7ce9c9

 

Epoch

 /ˈiːpɒk/  美 

n. 时代,纪元;值得纪念的事件(或日期);世(地质年代,纪下分世);历元

复数 epochs

 

当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一次Epoch。所有训练样本在神经网络中都进行了一次正向传播和一次反向传播。一个Epoch就是将所有训练样本训练一次的过程。

一个Epoch训练样本数量可能太过庞大,就需要把它分成多个小块,也就是就是分成多个Batch 来进行训练。

一个epoch指代所有的数据送入网络中完成一次前向计算及反向传播的过程。由于一个epoch常常太大,计算机无法负荷,我们会将它分成几个较小的batches。那么,为什么我们需要多个epoch呢?我们都知道,在训练时,将所有数据迭代训练一次是不够的,需要反复多次才能拟合收敛。在实际训练时,我们将所有数据分成几个batch,每次送入一部分数据,梯度下降本身就是一个迭代过程,所以单个epoch更新权重是不够的。

下图展示了使用不同个数epoch训练导致的结果。

深度学习训练模型中的 Epoch,Batchsize,Iterations_数据集

可见,随着epoch数量的增加,神经网络中权重更新迭代的次数增多,曲线从最开始的不拟合状态(右侧图),慢慢进入优化拟合状态(中间图),最终进入过拟合(左侧图)。

因此,epoch的个数是非常重要的。那么究竟设置为多少才合适呢?恐怕没有一个确切的答案。对于不同的数据集来说,epoch数量是不同的。但是,epoch大小与数据集的多样化程度有关,多样化程度越强,epoch应该越大。

一般在神经网络中传递全部的数据集一次是不够的,我们需要将全部的数据集在同样的神经网络中传递多次,比如2万次,这个次数也需要训练,epoch的次数过多,容易造成过拟合,次数过少,容易使训练的参数达不到最优。

例如,训练数据集总共有1000个样本。若batch_size=10,那么训练完全体样本集需要100次迭代,1次epoch。

例如:训练样本10000条,batchsize设置为20,将所有的训练样本在同一个模型中训练5遍,则epoch=5,batchsize=20, iteration=10000/20=500

 

 

Batch Size

所谓Batch就是每次送入网络中训练的一部分数据,而Batch Size就是每个batch中训练样本的数量。上文提及,每次送入训练的不是所有数据而是一小部分数据,另外,batch size 和 batch numbers不是同一个概念。

Batch size大小的选择也至关重要。为了在内存效率和内存容量之间寻求最佳平衡,batch size应该精心设置,从而最优化网络模型的性能及速度。

batchsize太大或者太小都不好,如果该值太小,假设batchsize=1,每次用一个数据进行训练,如果数据总量很多时(假设有十万条数据),就需要向模型投十万次数据,完整训练完一遍数据需要很长的时间,训练效率很低;如果该值太大,假设batchsize=100000,一次将十万条数据扔进模型,很可能会造成内存溢出,而无法正常进行训练。

所以,我们需要设置一个合适的batchsize值,在训练速度和内存容量之间寻找到最佳的平衡点。

几点经验:

相对于正常数据集,如果Batch_Size过小,训练数据就会非常难收敛,从而导致欠拟合。增大Batch_Size,相对处理速度会变快,同时所需内存容量增加。为了达到更好的训练效果,一般在Batchsize增加的同时,我们需要对所有样本的训练次数(也就是后面要讲的epoch)增加,以达到最好的结果。增加Batchsize的同时,一般会让所有样本的训练次数增加,这同样会导致耗时增加,因此需要寻找一个合适的Batchsize值,在模型总体效率和内存容量之间做到最好的平衡。

深度学习训练模型中的 Epoch,Batchsize,Iterations_迭代_02

 

 

Iterations

  • 英 /ˌɪtəˈreɪʃn/
  • 美 /ˌɪtəˈreɪʃn/

 

所谓 iterations 就是完成一次epoch所需的batch个数。

刚刚提到的,batch numbers 就是iterations。

简单一句话说就是,我们有2000个数据,分成4个batch,那么batch size就是500。运行所有的数据进行训练,完成1个epoch,需要进行4次iterations。

 假设一共有100个训练数据,batchsize设置为10,即一共有100个数据,一次向模型中扔10个数据进行训练,那一共要扔多少次才能将所有数据训练一遍呢? 100/10=10 (次) ,也就是我们扔(迭代)十次就能将数据训练一遍了,此处的扔数据的次数(迭代次数)= iteration=10 。

 每一次迭代得到的结果都会被作为下一次迭代的初始值。例如,上例中需要迭代十次,首先,所有的参数会有一个初始值,第一次迭代过后,模型中的参数会得到一批新值,这一批参数值就作为第二次迭代的输入,通过第二次迭代得到一批优化了一些的参数值,这些参数值将作为第三次迭代的输入……如此,通过一次次迭代,模型里的参数们一步步向最优的参数靠近……

 

 

用mnist 数据集举例:

mnist 数据集有60000张图片作为训练数据,假设现在选择 Batch_Size = 100 对模型进行训练。

  • 每个 Epoch 要训练的图片数量:60000 (训练集上的所有图像)
  • 训练集具有的 Batch 个数:60000/100=600
  • 每个 Epoch 需要完成的 Batch 个数:600
  • 每个 Epoch 具有的 Iteration 个数:600(完成一个Batch训练,相当于参数迭代一次)
  • 每个 Epoch 中发生模型权重更新的次数:600
  • 训练 10 个Epoch后,模型权重更新的次数:600*10=6000
  • 不同Epoch的训练,其实用的是同一个训练集的数据。第1个Epoch和第10个Epoch虽然用的都是训练集的图片,但是对模型的权重更新值却是完全不同的。因为不同Epoch的模型处于代价函数空间上的不同位置,模型的训练代越靠后,越接近谷底,其代价越小。

图示:

 

深度学习训练模型中的 Epoch,Batchsize,Iterations_迭代_03

 

 

深度学习训练模型中的 Epoch,Batchsize,Iterations_数据集_04

 

 

深度学习训练模型中的 Epoch,Batchsize,Iterations_数据_05

 

 

 

REF链接:

https://www.jianshu.com/p/e5076a56946c/

https://baijiahao.baidu.com/s?id=1637024752671211788&wfr=spider&for=pc



标签:迭代,训练,Batchsize,epoch,Batch,Epoch,Iterations,数据
From: https://blog.51cto.com/emanlee/8142616

相关文章

  • MNE-Python中的Epoch
    (图片来自links视频截图,侵删)在MNE-Python中,Epoch是指将原始脑电数据按照一定的时间窗口和事件标记进行切割和分类的过程。即将原始数据切割成若干个时间段(通常称为Epochs或Trials),每个时间段对应一个特定的事件(例如视觉刺激、听觉刺激、按键反应等)。Epoch是脑电数据分析中常用的......
  • niter和epoch的关系
    在机器学习和深度学习中,"niter"通常指的是迭代次数(numberofiterations),而"epoch"是指一个完整的训练数据集通过神经网络的前向传播和反向传播的次数。这两个概念之间存在一定的关系。迭代次数(niter):是指训练过程中优化算法(如随机梯度下降)进行参数更新的次数。每一次迭代,算法......
  • What does the term epoch mean? Why it is so important?
    在人工智能中,"epoch"(中文称为"训练轮次"或"周期")是指训练神经网络时将整个训练数据集通过神经网络进行一次正向传播和反向传播的过程。每个"epoch"包含一次前向传播和一次后向传播,用于更新神经网络的参数。在每个"epoch"中,神经网络对整个训练数据集进行一次学习和优化,以逐渐提高......
  • PostgreSQL 时间函数 extract函数和epoch 新纪元时间的使用
    Extract属于SQL的DML(即数据库管理语言)函数,同样,InterBase也支持Extract,它主要用于从一个日期或时间型的字段内抽取年、月、日、时、分、秒数据,因此,它支持其关健字YEAR、MONTH、DAY、HOUR、MINUTE、SECOND、WEEKDAY、YEARDAY。计算时间差天数selectextract(dayFROM(age(......
  • tflearn Training Step每次 We will run it for 10 epochs (t
    TrainingTFLearnprovidesamodelwrapper'DNN'thatcanautomaticallyperformsaneuralnetworkclassifiertasks,suchastraining,prediction,save/restore,etc...Wewillrunitfor10epochs(thenetworkwillseealldata10times)withabat......
  • SKNet 200epoch lolv1 分别使用压缩和不压缩
    SKNet在lolv1数据集epoch=200:psnr=22.92SSIM=0.9033/home/mmsys/anaconda3/envs/SFNet/bin/python3.8/media/mmsys/6f1091c9-4ed8-4a10-a03d-2acef144d2e1/SXY/restoration/SFNet_main_old/main.py[WCopy.cpp:219]Warning:Castingcomplexvaluestorealdiscard......
  • batchsize、iteration、epoch之间的关系
    有的时候总是会弄错batchsize、iteration、epoch之间的关系,现在终于明白了。1、batchsize是批次大小,假如取batchsize=24,则表示每次训练时在训练集中取24个训练样本进行训练。2、iteration是迭代次数,1个iteration就等于一次使用24(batchsize大小)个样本进行训练。3、epoch,1个epoch......
  • 深度学习概念辨析——Epoch、Batch、Iteration
    本文转载自简书https://www.jianshu.com/p/22c50ded4cf7写在前面在训练神经网络的时候,我们难免会看到Batch、Epoch和Iteration这几个概念。曾对这几个概念感到模糊,看了网上的一些文章后,在这里做几个小小的总结。名词解释:【图片来源:https://zhuanlan.zhihu.com/p/29409502......
  • 转:深度学习中epoch、batch、batch size和iterations详解
    1.epoch在训练一个模型时所用到的全部数据;备注:一般在训练时都要使用多于一个的epoch,因为在神经网络中传递完整的数据集仅仅一次是不够的,只有将完整的数据集在同样的神经网......
  • The current epoch, 0, is older than the last zxid
    2019-01-1110:33:19,963[myid:]-INFO[main:QuorumPeerConfig@136]-Readingconfigurationfrom:/data/apps/zookeeper/bin/../conf/zoo.cfg2019-01-1110:33:19......