首页 > 其他分享 >吴恩达机器学习-第二课-第二周

吴恩达机器学习-第二课-第二周

时间:2024-04-16 21:55:17浏览次数:27  
标签:输出 吴恩达 第二课 sigmoid 第二周 Softmax 使用 激活 函数

吴恩达机器学习

学习视频参考b站:吴恩达机器学习
本文是参照视频学习的随手笔记,便于后续回顾

TensorFlow实现神经网络

image

模型训练细节

训练步骤与和逻辑回归的比较

训练模型分为三步:
1.确定f(x)函数
2.确定损失函数和代价函数
3.通过数据训练寻找最小值
image

详细介绍

1.创建模型
image
2.损失和代价函数
如果模型解决回归而不是分类问题,可以用别的损失函数,例如下方的MeanSquareError()
image
3.梯度下降
调用model.fit函数设定输入输出与迭代次数
image
Neural network libraries--神经网络库:像是TensorFlow和PyTorch

激活函数(Activation Function)

sigmoid激活函数替代(Alternatives to the sigmoid activation)

需求预测模型
替代函数像是ReLU(Rectified Linear Unit)
image
常用的激活函数
使用线性激活函数经常说是没有使用激活函数,因为g(z)=z
image

如何选择激活函数

如果是二进制分类问题,使用sigmoid函数
如果是回归,输出有正负,使用线型激活函数
如果是回归,输出只有正,使用ReLU函数
image
现如今大多数都是使用ReLU函数而不是sigmoid函数,原因:
1.sigmoid要取幂等等操作,繁琐
2.ReLU左边一段是平的,而sigmoid两边都是平的,会导致梯度下降会很慢,图像有很多平坦
image

Summary

隐藏层建议只使用ReLU,输出层如果是二进制分类问题,可以使用sigmoid
image
还有很多不同不同的激活函数,在某些具体情况可能效率高

为什么需要激活函数

如果激活函数都是用线性函数,模型训练会跟线性回归没有什么区别
image
image
全部使用线性函数,模型做的就是线性回归,只在最后输出层使用sigmoid函数,模型做的就是逻辑回归
所以不要在隐藏层使用线性函数
image

多分类问题(Multiclass

定义&示例

定义:不只是取0,1两个值,可以取少量的超过两个的值
image
示例:划分空间界限,求不同值的概率
image

Softmax(Regression Algorithm)

输出值a的表达式

是逻辑回归的推广,是多类分类上下文的二进制分类算法
4个可能输出示例(Softmax):
所有值的可能性相加为1,如果输出值只有2个,那么Softmax回归算法和逻辑回归算法一样
image

损失函数与代价函数

image

神经网络的Softmax输出

使用Softmax函数的输出层常常称为Softmax层
Softmax层的每一个输出值都需要z1......z10所有的函数值作为输入
image

TensorFlow实现

损失函数使用SparseCategoricalCrossentropy(稀疏分类交叉熵)函数
以下这个版本的代码不推荐使用,下面会提供效果更好的实施版本,使用下面标题的代码!!!
image

TensorFlow的改进实现

同一个值,通过不同的计算方式减少舍入误差
image
image

逻辑回归改进

直接指定他的loss函数而不是通过中间值a来传值,效果会更好
from_logits=true指的是通过z来传值,就像是跳过中间值a直接指定loss函数
image

Softmax函数改进

记住输出层的激活函数要改成线性函数,因为要直接提供z
image
因为输出层改成线性函数,所以输出值不再是输出概率a1......a10,而是值z1......z10
image
image

多个输出的多分类(Classification with multiple outputs)

每个图都检测三个01的分类问题(多标签分类)
image
用一个神经网络解决三个分类问题,输出层使用sigmoid函数(解决01问题),而不是用三个神经网络
image

高级优化方法

为什么需要优化方法?

在梯度下降过程中,学习率或大或小,导致梯度下降参数更新的效率并不高,所以需要一个算法更新学习率α
因此引入Adam算法
image

Adam算法

并没有全局单一的学习率α
image
梯度下降朝着正确的方向进行,就可以增大学习率,如果来回震荡,就可以适当减少学习率
具体实现比较复杂,在此不做讲解
image
Adam需要设置初始学习率,这里设置的是0.03
image

其他的网络层类型

之前学习的网络层都是密集层类型(dense),每一个神经元都使用上一层的所有输出
image
这里介绍一个不同的类型,像是卷积层(Convolutional Layer)
每一个神经元都使用前一层的一部分输出作为输入
原因:
1.加快计算速度
2.可以使用更少的训练数据,并且不太容易过拟合(Overfitting)
image
如果有多个卷积层,就称为卷积神经网络(Convolutional Neural Network)
示例心电图
把列数据分为x1......x100作为输入
image

Summary

本周主要学习了以下内容:
1.如何使用TensorFlow实现神经网络,模型训练的步骤
2.如何选择激活函数,为什么需要激活函数
3.Softmax回归算法实现多分类,损失函数与代价函数,代码实现,代码改进
4.高级优化方法Adam算法
5.卷积层与卷积神经网络的概念

标签:输出,吴恩达,第二课,sigmoid,第二周,Softmax,使用,激活,函数
From: https://www.cnblogs.com/Mmbhcyt/p/18133513

相关文章

  • 吴恩达神经网络-第一周
    吴恩达神经网络学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。神经网络(NeuralNetworks)发展历程神经元和大脑(Neuronsandthebrain)多个树突接受信号,通过轴突把信号传给下一个神经元通过软件模仿大脑工作,但大脑实际怎么工作的人们并不清楚,只是......
  • 吴恩达机器学习
    吴恩达机器学习-第三周学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。分类(Classification)分类回顾输出结果y能分为两大类trueorfalse线性回归并不适合分类癌症探测:线性函数所得结果值大于0.5判定为yes,小于0.5判定为no(蓝色线)若但在右侧多加......
  • 论文解读:吴恩达来信AI Agent技巧—利用自我反馈的迭代细化技术
    《自我完善:利用自我反馈的迭代细化技术》https://arxiv.org/pdf/2303.17651.pdf摘要Largelanguagemodels(LLMs)经常无法在一次尝试中生成最佳输出。受人类在修改书面文本时所表现出的迭代精炼过程的启发,我们提出了SELF-REFINE,一种通过迭代反馈和精炼来改进大型语言模......
  • 吴恩达机器学习笔记:第 7 周-12支持向量机(Support Vector Machines)12.1-12.3
    目录第7周12、支持向量机(SupportVectorMachines)12.1优化目标第7周12、支持向量机(SupportVectorMachines)12.1优化目标到目前为止,你已经见过一系列不同的学习算法。在监督学习中,许多学习算法的性能都非常类似,因此,重要的不是你该选择使用学习算法......
  • 吴恩达2022机器学习专项课程(一) 5.5 特征缩放1 & 5.6 特征缩放2
    问题预览/关键词什么是特征缩放?作用是什么?特征尺度和参数w权重的关系是?算法为什么要调节w权重?不进行特征缩放对梯度下降的影响?有特征缩放对梯度下降的影响?实现特征缩放的三种方法是?如何实现最大值缩放?如何实现均值归一化?如何实现Z-score标准化?判断缩放成功的标准是?什么情况......
  • 吴恩达机器学习
    吴恩达机器学习-第二周学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。多维特征(MultipleFeatures)多种不同类型的输入X1,X2,X3......模型f(x)=w1x1+w2x2+w3x3+w4x4+b,加了小箭头的是向量(Vector),可以不加,只是方便辨识点积表示法:符号表......
  • 吴恩达机器学习-第一周
    吴恩达机器学习-第一周学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。机器学习定义Fieldofstudythatgivescomputerstheabilitytolearnwithoutbeingexplicitlyprogrammed.--ArthurSamuel(1959)编译了跳棋程序,程序自己下棋迭代。Que......
  • 书生浦语第二期实战营——第二课_part2
    这里写目录标题1基于`InternLM2-Chat-7B`运行`Lagent`智能体1.1介绍1.2实践准备运行1.3作业2部署`浦语·灵笔2`模型2.1介绍2.2实践(1)环境配置(2)图文写作(3)图片理解2.3作业(1)图文创作(2)视觉问答正文主要内容:运行Lagent智能体、部署浦语·灵笔2模型B......
  • 书生浦语第二期实战营——第二课_part1
    目录0环境配置1部署`InternLM2-Chat-1.8B`智能对话模型1.1课程内容:(1)准备工作(2)代码流程1.2课程作业2部署`八戒-Chat-1.8B`模型2.1课程(1)准备工作(2)开启服务(3)本地对话2.2作业(1)snapshot_download(2)hf_hub_download(3)hf_hub_url(4)huggingface-cli正文:所有操......
  • 吴恩达2022机器学习专项课程(一) 4.6 运行梯度下降&第一周课程实验:线性回归的梯度下降
    问题预览/关键词更新梯度下降对模型拟合,等高线图,3d空间图的变化。什么是批量梯度下降。实验目标计算梯度运行梯度下降梯度下降迭代次数和成本函数的关系可视化模型预测在等高线图上的梯度下降学习率过大报错问题笔记1.模型拟合,等高线图,3d空间图的变化3.5课节有一样的图,......