首页 > 其他分享 >Datawhale X 李宏毅苹果书AI夏令营 Task3打卡

Datawhale X 李宏毅苹果书AI夏令营 Task3打卡

时间:2024-09-03 23:46:50浏览次数:10  
标签:Task3 bar 平均值 AI mu 感受 参数 归一化 打卡

3.7 批量归一化

批量归一化的核心思想在于把误差函数图像的“山铲平”,在某些误差表面上不同参数方向的变化率可能差别很大,此时在损失函数上找到临界点会比较困难

比如对一个简单的线性函数 \(y=\sigma(w_1\times x_1+w_2\times x_2 + b)\) 来说,我们考虑对于参数 \(w_1,w_2\) 来说,如果 \(x_1\) 的可取值非常小,那么参数 \(w_1\) 的变化对 \(y\) 的影响就会非常小,反应在损失函数图像上来说就是参数 \(w_1\) 对于损失函数的梯度变化很慢。因此为了解决这个问题,有一类方法被统称为 特征归一化

一种常见的特征归一化方法是Z值归一化,也称为标准化。记所有训练数据的特征向量 \(x_1,\cdots x_n\),\(x_j^i\) 表示第 \(i\) 个特征向量的第 \(j\) 维的值。 我们处理得到新的特征向量为 \(\bar{x_i}^r\leftarrow \frac{x_i^r-m_i}{\sigma_i}\) 其中 \(m_i,\sigma_i\) 分别表示第 \(i\) 维的平均值和标准差。经过这种处理后每个维度上的平均值都是0,方差都是1

3.7.1 深度学习

对于神经网络而言,即使输入 \(x\) 已经进行归一化处理了,但是通过 \(W\) 之后得到的输出结果 \(z\) 的数值分布差异还是很大,所以对于这些输出 \(z_1\cdots z_n\) 也要进行归一化处理,再通过激活函数得到该层的最终输出结果 \(a\)。一般来说我们特征归一化要放在输出函数之前,不过放在之后也可以

归一化的方式和Z值归一化类似 \(\bar{z}^i\leftarrow \frac{z^i-\mu}{\sigma}\) ,其中 \(\mu,\sigma\) 分别表示平均值和标准差,值得注意的是在训练中我们一般是分批次导入数据,所以计算的平均值和标准差也是某个批次内所有数据的,可以近似为对整个数据集做了特征归一化。

在实际的训练中,除了上面的归一化之外,我们还会另外添加一步。\(\hat{z}^i=\gamma \bar{z}^i+\beta\) ,这样做是因为有的时候某个维度上数据的平均值是0可能会对训练产生一些影响,所以我们会对数据分布做一些小的调整。

3.7.2 测试是的批量归一化

在测试(也叫推断 inference)过程中,数据并不一定是以批量的形式加载的,我们没法直接得到一个Z值归一化形式中的平均值和标准差。

为了解决这个问题,Pytorch中内置了移动平均的方式,如果在训练的时候我们使用了批量归一化的方法,那么Pytorch在训练的时候也会记录一个移动平均值 \(\bar{\mu}\) ,其更新方式为 \(\bar{\mu}\leftarrow p\bar{\mu}+(1-p)\mu_{new}\) 其中 p 是一个可以调节的超参数,其默认值是 0.1。对于标准差的处理方式类似。

3.7.3 内部协变量偏移

内部协变量偏移的概念是在原始的批量归一化论文中作者提出的一个概念。例如在某个神经网络中,经过连续两层得到的输出结果为 \(a,b\),在更新时我们将 \(A,B\) 更新为 \(A^`,B^`\) ,但是我们更新 B 的时候,前一层此时的参数是 A,也就是我们在考虑前一层输出是 \(a\) 的情况下来更新下一层的输出 \(b\) ,可是更新完 \(b\) 之后我们又让 \(a\) 变成了 \(a^`\)。也就是说更新 \(b\) 时的情景条件不成立了。这种情况称为内部协变量偏移

但是作者在实践中发现,更新时不论是对于 \(a\) 还是 \(a^`\) 计算得到的梯度是非常近似的,对于训练的影响很小。

4 卷积神经网络

4.1 观察1:检测模式不需要整张图像

识别的核心是对于图像中某些重要表征的识别

4.2 简化1:感受野

每个神经元直观性自己的 receptive field 内部的图像信息。一般来说特征都会存在于不同的通道中,所以对于感受野而言,一个感受野就只负责一个特定的通道上的一部分。另外感受野不一定要相连,感受野可以设计成任意的形状,不过一般而言相邻区域的信息是有关联的,所以我们习惯于将感受野设置为矩形的形式,大小也是可以自己调节的。

另外我们控制步幅来调整感受野的分布,一般来说我们希望感受野是重叠的,因为某个表征可能出现在两个感受野的边界上,如果不重叠的话,这个表征可能就没法被很好的提取到。自然引出的一个问题就是,移动感受野的时候,可能会超出边界范围,此时我们需要对超出的部分进填充一般来说填充的值都是0,当然也可以填充平均值等其他数据。

4.3 观察2:同样的表征可能会出现在图像的不同区域

同一个表征可能会出现在一个图片的不同位置,如果对于每一个位置都要设置一个神经元来判断相同的特征会显得很冗余

4.4 简化2:共享参数

每个感受野都有一组神经元负责守备和运算,我们希望对于不同的感受野能通过共享参数的方式来简化。具体来说我们对于每个感受野设置一组参数,称为滤波器,不同的感受野可以共享相同的参数。

4.5 总结

全连接层的灵活性最强,弹性最大,可以通过参数设置来决定是要看整张图像,还是某些部分。在引入感受野之后,每一个神经元能控制的范围就变小了,网络的灵活性和弹性自然也下降了。同时参数共享又进一步限制了网络的灵活性。

感受野加上参数共享就是卷积层,而使用卷积层的网络就叫做卷积神经网络。

标签:Task3,bar,平均值,AI,mu,感受,参数,归一化,打卡
From: https://www.cnblogs.com/youth518/p/18395664

相关文章

  • 5个Midjourney实用技巧,让你的图片更自然真实,摆脱“AI味”
    在当前的视觉创作领域,AI生成图片已经成为了一种热门趋势,尤其是像Midjourney这样的工具,它可以让你轻松生成各种风格的图像。然而,许多用户在使用这些工具时,往往会发现生成的图片带有明显的“AI味”,缺乏自然感和真实感。为了帮助你打造更具视觉冲击力的作品,本文将分享五个实用的Midjou......
  • 员工工作服穿戴AI识别 Python
    员工工作服穿戴AI识别系统是基于人工智能技术,员工工作服穿戴AI识别通过在工厂和电力场景内部安装摄像头,对员工的工作服穿戴情况进行实时监控。当员工的工作服穿戴不符合规范时,员工工作服穿戴AI识别将自动发出警报,及时通知现场管理人员进行处理。员工工作服穿戴AI识别24小时不间断运......
  • AI驱动测试管理工具会有哪些发展前景呢?
     在软件测试领域,人工智能(AI)的出现犹如一场技术革命,改变了传统的测试管理方式。随着AI技术的迅速发展,它将如何进一步提升测试管理的效率与准确性?未来的AI驱动测试管理工具又会带来哪些令人期待的创新呢?我们不禁要问,AI驱动的测试管理工具究竟会走向何方?它们能否真正实现智能化......
  • 第二天学习笔记:Datawhale X 李宏毅苹果书 AI夏令营
    今天学的有些小兴奋,终于解锁了很多熟悉但不明就里的术语。天呢,原来ReLU是“修正线性单元”的意思!RectifiedLinearUnit!但是呢,也有不大对付的地方:好几个地方前言不搭后语。容我一一道来。今天就顺序边读边记:线性模型(linearmodel)==把模型输入的特征x乘上一个权重,再加......
  • 2、实践方法论(Datawhale X 李宏毅苹果书 AI 夏令营)
    2、实践方法论(DatawhaleX李宏毅苹果书AI夏令营)在应用机器学习算法时,实践方法论能够帮助我们更好地训练模型。如果在Kaggle上的结果不太好,虽然Kaggle上呈现的是测试数据的结果,但要先检查训练数据的损失。2.1模型偏差有时候把模型设置的太过简单,使得函数的集合太小了,没......
  • OpenCV与AI深度学习 | 实战 | OpenCV传统方法实现密集圆形分割与计数(详细步骤 + 代码
    本文来源公众号“OpenCV与AI深度学习”,仅用于学术分享,侵权删,干货满满。原文链接:实战|OpenCV传统方法实现密集圆形分割与计数(详细步骤+代码)导 读    本文主要介绍基于OpenCV传统方法实现密集圆形分割与计数应用,并给详细步骤和代码。 背景介绍  实例图片来......
  • Datawhale X 李宏毅苹果书 AI夏令营-深度学习入门班-task3-机器学习实践方法论
    引入在简单了解到机器学习的过程,以及模型函数的优化升级之后,我们需要根据一些方法论,解决模型实践过程中会遇到的问题,学会分析模型数据,按照正确的路径优化模型,减少测试误差(TestingLoss)。实践方法论整体框架下图是实践方法论的整体框架,下文会根据逻辑顺序一一介绍。step......
  • 利用LangChain构建MySQL数据库问答代理
    引言随着自然语言处理技术的飞速发展,尤其是大型语言模型(LLM)的应用日益广泛,人们对于如何更高效地与这些模型交互产生了浓厚的兴趣。LangChain是一个旨在简化与语言模型集成的开源框架,它使得开发者能够轻松地构建出强大的应用程序。本文将介绍如何使用LangChain结合MySQL数据......
  • Datawhale X 李宏毅苹果书 AI夏令营 Task3-机器学习实践方法论
    在上一章介绍完机器学习模型后,我们接着讨论模型中可能存在的一些问题。首先我们需要明确一件事,就是Kaggle上的测试结果不好,可能有多个原因。第一,如果模型在运行训练模型时,所产生的损失就很大,那么有可能是模型偏差(modelbias)或优化(optimization)问题。第二,如果模型在运行训......
  • Datawhale X 李宏毅苹果书 AI夏令营-深度学习入门篇-Task3《深度学习详解》- 实践方法
     核心学习目标:通过《深度学习详解》和李宏毅老师21年的机器学习课程视频,入门机器学习,并尝试学习深度学习,展开代码实践(选修)。该书保留了李宏毅老师公开课中大量生动有趣的例子,帮助读者从生活化的角度理解深度学习的概念、建模过程和核心算法细节,包括卷积神经网络、Transform......