• 2024-09-17第J3-1周:DenseNet算法 实现乳腺癌识别(pytorch)
    >-**
  • 2024-09-16三、浅层神经网络
    1、神经网络概览  什么是神经网络?如下图:  神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多一层,多出来的中间那层称为隐藏层或中间层。从计算上来看,神经网络的正向传播和反向传播比logistic回归多了一次重复的计算。引入新的标签:方括号上标[i]表示当前所处的层
  • 2024-09-10[实践应用] 深度学习之激活函数
    文章总览:YuanDaiMa2048博客文章总览深度学习之激活函数激活函数基本概念分类常见的激活函数2.Tanh/双曲正切激活函数3.ReLU激活函数4.Softmax激活函数PyTorch中如何使用1.线性激活函数2.非线性激活函数SigmoidTanhReLULeakyReLUParametricReLU(PReLU)使用激
  • 2024-09-08深度学习中常见的权重参数初始化方法
    在深度学习中,权重参数的初始化对模型的训练过程和性能有着非常重要的影响。一个好的权重初始化方法能够帮助模型更快收敛、避免梯度爆炸或梯度消失等问题。以下是几种常见的权重初始化方法及其背后的原理。1.零初始化(ZeroInitialization):方法:将所有权重初始化为零。问题:对于
  • 2024-09-08深度学习|激活函数:网络表达增强
    文章目录引言常见的激活函数阶跃函数**Sigmoid****ReLU****LeakyReLU****Softmax****Tanh**恒等函数对比分析梯度问题可训练性结语引言在前文对M-P神经元结构的介绍以及「深度学习|模型推理:端到端任务处理」的推理过程演示中,我们反复提到了激活函数
  • 2024-09-03第二天学习笔记:Datawhale X 李宏毅苹果书 AI夏令营
    今天学的有些小兴奋,终于解锁了很多熟悉但不明就里的术语。天呢,原来ReLU是“修正线性单元”的意思!RectifiedLinearUnit!但是呢,也有不大对付的地方:好几个地方前言不搭后语。容我一一道来。今天就顺序边读边记:线性模型(linearmodel)==把模型输入的特征x乘上一个权重,再加
  • 2024-09-03第J2周:ResNet50V2算法实战与解析(pytorch版)
    >-**
  • 2024-08-31Datawhale X 李宏毅苹果书 AI夏令营-深度学习入门班-task2-分段线性曲线
    引入上一篇文章中我们了解了机器学习中最基本的模型线性模型(Linearmodels),由于其过于简单(只能调整其斜率w与截距b)无法反映真实数据中多数折线或曲线情况这种限制称为模型偏差(modelbias)。下文介绍:如何构建更复杂,误差更小的函数解决问题。注:此处的bias与线性模型中的b不同。
  • 2024-08-31Datawhale X 李宏毅苹果书AI夏令营深度学习入门(二)
    一.深度学习继续上一篇文章的深度学习的定义把w跟b更新的方向结合起来,就是一个向量,就是红色的箭头,再计算一次微分,再决定要走什么样的方向,把这个微分的值乘上学习率,再乘上负号,我们就知道红色的箭头要指向那里,就知道如何移动w跟b的位置,一直移动,期待最后可以找出一组不错的
  • 2024-08-30什么是激活函数?零基础扫盲~
    我刚开始学习深度学习的时候,看到了这么一段话:作者把非线性激活函数(ReLU)用在了模型里,发现训练速度显著提高,原因在于传统用的是饱和非线性激活函数,例如tanh,训练时如果进入到饱和区域,那么会因为梯度变化过小而难以训练;而ReLU是一种非饱和非线性激活函数,接受阈是0~∞∞,不存在tan
  • 2024-08-29Datawhale X 李宏毅苹果书(入门) AI夏令营 task02笔记
    官方学习文档:https://linklearner.com/activity/16/14/55往期task01链接:https://mp.csdn.net/mp_blog/creation/editor/141535616李宏毅老师对应视频课程可供食用:https://www.bilibili.com/video/BV1JA411c7VT/?p=3机器学习基础线性模型        w跟b的值上期ta
  • 2024-08-28机器学习新手入门笔记02#AI夏令营#Datawhale X 李宏毅苹果书#夏令营
    机器学习一、线性模型(一)概念把输入的特征x乘上一个权重,再加上一个偏置得到预测的结果,这样的模型称为线性模型(linearmodel)。(二)分段线性曲线(piecewiselinearcurve)局限性:Linearmodelshaveseverelimitation:ModelBias,soweneedamoreflexiblemodel!分段线性曲
  • 2024-08-247-常见的激活函数
    1、Relu函数2、sigmoid函数3、tanh函数
  • 2024-08-18激活函数:灵活的修正线性单元(FRELU)是什么?
    激活函数:灵活的修正线性单元(FRELU)是什么?在深度学习的广阔领域中,激活函数作为神经网络中的关键组件,对于模型的性能和学习能力起着至关重要的作用。传统的ReLU(RectifiedLinearUnit,修正线性单元)函数因其简单性和有效性而广受欢迎,但近年来,研究者们不断探索新的激活函数以进
  • 2024-08-05面向城市人群流量预测的深度时空残差网络[名词解释]
    [1]端到端的结构:输入直接映射到输出,没有中间步骤或人为干预。这种方法的核心思想是将整个任务或流程作为一个单一的系统来优化和执行,而不需要手动处理中间步骤或特征工程。[2]残差神经网络残差的使用主要是由于直接进行学习容易导致梯度的爆炸或消失,使用残差块,不直接学习映
  • 2024-08-04深入理解 ReLU 激活函数及其在深度学习中的应用【激活函数、Sigmoid、Tanh】
    ReLU(RectifiedLinearUnit)激活函数ReLU(RectifiedLinearUnit)激活函数是一种广泛应用于神经网络中的非线性激活函数。其公式如下:ReLU(x
  • 2024-07-29对神经网络梯度反传的理解
    对神经网络梯度反向传播的理解想写这个话题的起因是因为在读论文时,读到了下面这句话:wevisualizegradientswithrespecttothesquareofthenormofthelastconvolutionallayerinthenetwork,backpropagatedintotheinputimage,andvisualizedasafuncti
  • 2024-07-10一文掌握ReLU激活函数:深度学习中不可或缺的神器
    在深度学习的领域中,激活函数扮演着至关重要的角色,它们决定着一个神经网络节点是否应该被激活,帮助模型理解数据中复杂和非线性的关系。今天,我们将深入探讨最受欢迎的激活函数之一——ReLU(RectifiedLinearUnit)函数,揭示其为何成为许多深度学习模型的首选。1.ReLU激活函数
  • 2024-07-01深度学习之激活函数
    激活函数的公式根据不同的函数类型而有所不同。以下是一些常见的激活函数及其数学公式:Sigmoid函数:公式:f(x)=特性:输出范围在0到1之间,常用于二分类问题,将输出转换为概率值。但存在梯度消失问题,尤其在输入值较大或较小时。Tanh函数(双曲正切函数):公式:f(x)=特性:输出范围在-1
  • 2024-07-01激活函数(1)笔记
    ReLU函数最受欢迎的激活函数是修正线性单元(Rectifiedlinearunit,ReLU),因为它实现简单,同时在各种预测任务中表现良好。ReLU提供了一种非常简单的非线性变换。#导入PyTorch库importtorch#从d2l库中导入与PyTorch相关的模块(这里假设d2l是一个外部库或教程中定义的
  • 2024-07-01经典的卷积神经网络模型 - AlexNet
    经典的卷积神经网络模型-AlexNetflyfishAlexNet是由AlexKrizhevsky、IlyaSutskever和GeoffreyHinton在2012年提出的一个深度卷积神经网络模型,在ILSVRC-2012(ImageNetLargeScaleVisualRecognitionChallenge2012)竞赛中取得了显著的成果,标志着深度学习在计
  • 2024-06-30昇思25天学习打卡营第5天|网络构建
    ☀️最近报名参加了昇思25天学习打卡训练营☀️第1天初步学习了MindSpore的基本操作☀️第2天初步学习了张量Tensor☀️第3天初步学习了数据集Dataset☀️第4天初步学习了数据变换Transforms☀️第5天学习初学入门/初学教程/06-网络构建Transforms1.代码跑通流程神经
  • 2024-06-21卷积神经网络-AlexNet
    AlexNet一些前置知识top-1和top-5错误率top-1错误率指的是在最后的n哥预测结果中,只有预测概率最大对应的类别是正确答案才算预测正确。top-5错误率指的是在最后的n个预测结果中,只要预测概率最大的前五个中含有正确答案就算预测正确。max-pooling层最大池化又叫做subsamplin
  • 2024-06-19如何解决深度神经网络中的梯度消失问题
    引言深度神经网络(DNNs)以其强大的特征学习能力在多个领域取得了巨大成功。然而,随着网络深度的增加,梯度消失问题逐渐显现,严重影响了深层网络的训练效率和性能。本文将探讨梯度消失问题的原因、影响以及解决这一问题的多种策略。梯度消失问题的定义在深度神经网络的训练过程
  • 2024-06-08深度学习 - 激活函数
    深度学习-激活函数激活函数(ActivationFunction)是神经网络中的关键组件,用于引入非线性,使得网络能够学习和表示复杂的模式和关系。以下是几种常见的激活函数及其详细解释:1.Sigmoid(S型激活函数)作用过程:Sigmoid函数将输入映射到(0,1)之间。公式为: