• 2024-07-01深度学习之激活函数
    激活函数的公式根据不同的函数类型而有所不同。以下是一些常见的激活函数及其数学公式:Sigmoid函数:公式:f(x)=特性:输出范围在0到1之间,常用于二分类问题,将输出转换为概率值。但存在梯度消失问题,尤其在输入值较大或较小时。Tanh函数(双曲正切函数):公式:f(x)=特性:输出范围在-1
  • 2024-07-01激活函数(1)笔记
    ReLU函数最受欢迎的激活函数是修正线性单元(Rectifiedlinearunit,ReLU),因为它实现简单,同时在各种预测任务中表现良好。ReLU提供了一种非常简单的非线性变换。#导入PyTorch库importtorch#从d2l库中导入与PyTorch相关的模块(这里假设d2l是一个外部库或教程中定义的
  • 2024-07-01经典的卷积神经网络模型 - AlexNet
    经典的卷积神经网络模型-AlexNetflyfishAlexNet是由AlexKrizhevsky、IlyaSutskever和GeoffreyHinton在2012年提出的一个深度卷积神经网络模型,在ILSVRC-2012(ImageNetLargeScaleVisualRecognitionChallenge2012)竞赛中取得了显著的成果,标志着深度学习在计
  • 2024-06-30昇思25天学习打卡营第5天|网络构建
    ☀️最近报名参加了昇思25天学习打卡训练营☀️第1天初步学习了MindSpore的基本操作☀️第2天初步学习了张量Tensor☀️第3天初步学习了数据集Dataset☀️第4天初步学习了数据变换Transforms☀️第5天学习初学入门/初学教程/06-网络构建Transforms1.代码跑通流程神经
  • 2024-06-21卷积神经网络-AlexNet
    AlexNet一些前置知识top-1和top-5错误率top-1错误率指的是在最后的n哥预测结果中,只有预测概率最大对应的类别是正确答案才算预测正确。top-5错误率指的是在最后的n个预测结果中,只要预测概率最大的前五个中含有正确答案就算预测正确。max-pooling层最大池化又叫做subsamplin
  • 2024-06-19如何解决深度神经网络中的梯度消失问题
    引言深度神经网络(DNNs)以其强大的特征学习能力在多个领域取得了巨大成功。然而,随着网络深度的增加,梯度消失问题逐渐显现,严重影响了深层网络的训练效率和性能。本文将探讨梯度消失问题的原因、影响以及解决这一问题的多种策略。梯度消失问题的定义在深度神经网络的训练过程
  • 2024-06-08深度学习 - 激活函数
    深度学习-激活函数激活函数(ActivationFunction)是神经网络中的关键组件,用于引入非线性,使得网络能够学习和表示复杂的模式和关系。以下是几种常见的激活函数及其详细解释:1.Sigmoid(S型激活函数)作用过程:Sigmoid函数将输入映射到(0,1)之间。公式为:
  • 2024-05-30激活函数和正则化
    1.常用的激活函数及特点常用的激活函数有:ReLU、Sigmoid、Tanh等ReLU激活函数具有:简单、线性相关性和非线性增长等特点Sigmoid激活函数具有:非线性和可导性等特点Tanh激活函数具有:非线性和可导性等特点2.正则化方法和防止过拟合的技巧正则化方法包括:L1正则化和L2正则化防
  • 2024-05-05深度学习相关理论
    一、深度学习相关理论1.神经网络概述     2.卷积神经网络CNN ①卷积层——计算方法是大矩阵内部×小矩阵=较小矩阵,作用是特征提取  ②池化层——计算方法是大矩阵通过选取最大值或是平均值变成小矩阵,作用是降维、提高计算效率    3.激活函
  • 2024-04-30【pytorch学习】之多层感知机
    多层感知机1多层感知机最简单的深度网络称为多层感知机。多层感知机由多层神经元组成,每一层与它的上一层相连,从中接收输入;同时每一层也与它的下一层相连,影响当前层的神经元。当我们训练容量较大的模型时,我们面临着过拟合的风险。因此,将从基本的概念介绍开始讲起,包括过拟合、欠
  • 2024-04-16深度学习基本概念简介
    一、LinearModels'Bias上篇学习机器学习一文中,所构造的$y=b+wx_0$函数是一个linearmodel亦即线性模型,但是linearmodels有缺陷的——它过于简单了。实际应用中,我们所面临的不会只是一个简单的linearmodel,因此我们需要更复杂的models。比如上图中的红色曲线,如何找到它
  • 2024-04-11轻量化网络——MobileNet
    原文链接:https://zhuanlan.zhihu.com/p/402766063作为轻量化网络的经典网络,MobileNet自诞生就被广泛应用于工业界。笔者也经常在结构设计中使用MobileNet的诸多设计思想。本文参考众多大神文章,较详细介绍MobileNet系列的设计及改进思想,力求温故知新,举一反三。MobileNetV1Mobil
  • 2024-04-11卷积神经网络-激活函数
    原文链接:https://zhuanlan.zhihu.com/p/508741909?utm_id=0、https://zhuanlan.zhihu.com/p/476373735?utm_id=0、https://blog.csdn.net/purple_love/article/details/134620930https://www.zhihu.com/question/60650016/answer/2441796198?utm_id=0卷积神经网络中的卷积和池化
  • 2024-04-08Transformer模型-Feed Forward前馈网络和Relu激活函数的简明介绍
     今天介绍transformer模型的FeedForwardnetwork前馈网络和Relu激活函数背景位置感知Position-Wise前馈网络(FFN)由两个全连接层(fullyconnecteddenselayers,就是线性层(LinearLayer),或密集层(DenseLayer))组成,或者也可以称为多层感知机(MLP:multi-layerperceptron)。 参见:Tr
  • 2024-04-08从零开始的深度学习项目(PyTorch识别人群行为)
    PyTorch识别人群行为系统环境介绍环境版本Python3.11.5pandas2.0.3numpy1.24.3torch2.1.2+cu121注意:2.1.2+cu121这样的版本号通常用于描述TensorFlow等深度学习框架的版本信息,其中:2.1.2是TensorFlow的主要版本号,表示主要的功能和接口的变化。cu121表示该Tenso
  • 2024-04-03TensorIR_张量程序抽象案例研究
    !pipinstallapache-tvmimporttvmfromtvm.ir.moduleimportIRModulefromtvm.scriptimporttirasTimportnumpyasnp\(Y_{ij}=\sum_kA_{ik}B_{kj}\)\(C_{ij}=\mathbb{relu}(Y_{ij})=\mathbb{max}(Y_{ij},0)\)dtype="float32"a_
  • 2024-04-03ENet——实时语义分割的深度神经网络架构与代码实现
    概述在移动设备上执行实时像素级分割任务具有重要意义。现有的基于分割的深度神经网络需要大量的浮点运算,并且通常需要较长时间才能投入使用。本文提出的ENet架构旨在减少潜在的计算负担。ENet在保持或提高分割精度的同时,相比现有的分割网络,速度提升了18倍,参数量减少了79倍
  • 2024-03-24TensorFlow的研究应用与开发~深度学习
    TensorFlow是谷歌开源的机器学习框架,它的主要目标是让开发者能够轻松地构建和部署机器学习模型。TensorFlow的核心概念是张量(Tensor)和计算图(Graph)。张量是TensorFlow中的基本数据结构,可以看作是多维数组。张量可以是常量(Constant)或变量(Variable)。常量是指在计算图中的固定值,而
  • 2024-03-19关于卷积神经网络特征可视化
    卷积神经网络CNN,一个大号/深层的,现代的,黑箱的,信号/图像处理器。简单讲解如何将图像输入到卷积神经网络CNN并显示网络不同层的激活图,并通过将激活图与原始图像进行比较以探索网络学习哪些特征本例来源于Mathworks公司的大佬,需要用到MATLABNeuralNetworkToolbox(TM),Image
  • 2024-03-13【DL经典回顾】激活函数大汇总列表(持续更新中...)
    激活函数大汇总列表(持续更新中…)欢迎来到我们深入探索神经网络核心组成部分——激活函数的系列博客。在人工智能的世界里,激活函数扮演着不可或缺的角色,它们决定着神经元的输出,并且影响着网络的学习能力与表现力。鉴于激活函数的重要性和多样性,我们将通过一系列博客详细介绍
  • 2024-01-31李宏毅《机器学习》总结 - 2022 HW3(图像识别、CNN) Strong Baseline
    调参调吐了。。最好做到了private0.82/public0.808这题前前后后做了五天。。主要是后来train一次就得花很长很长时间,我的kaggle余额也用的差不多了。。这个题目大概就是给你11种食物的图片,让你学习,并分类CNN处理图片就先转化成\(128\times128\)个pixel,然后做
  • 2023-12-31Sigmoid核与其变体: 探索不同激活函数的表现
    1.背景介绍激活函数是深度学习中的一个关键概念,它在神经网络中的主要作用是为了解决模型的非线性问题。在神经网络中,每个神经元的输出是通过一个激活函数进行处理的,这个激活函数将输入的线性组合映射到一个非线性空间中。因此,选择合适的激活函数对于模型的性能至关重要。在这篇文章
  • 2023-12-24AI Mass人工智能大模型即服务时代:AI Mass在图像识别中的应用案例
    作者:禅与计算机程序设计艺术1.背景介绍概述随着人工智能技术的飞速发展,计算机视觉、自然语言处理等领域也得到了极大的关注。近年来,各大公司纷纷加入人工智能产品和解决方案供应商阵营,对人工智能的发展带来了巨大的变革。其中,以Google为代表的大数据及机器学习技术促进了人工智能
  • 2023-12-12[论文阅读] Replacing softmax with ReLU in Vision Transformers
    Pretitle:ReplacingsoftmaxwithReLUinVisionTransformersaccepted:Arxiv2023paper:https://export.arxiv.org/abs/2309.08586code:None关键词:attention,parallelization阅读理由:GoogleDeepmind,标题挺有意思Idea序列缩放能缓解ReLU等激活函数在attention中替
  • 2023-11-17梯度消失和梯度爆炸——从本质上说残差、LSTM遗忘门(依赖cell state)解决思路都是一样的,甚至relu激活函数也是
    在深度学习中,梯度消失和梯度爆炸是两个常见的问题。梯度消失是指在进行反向传播时,梯度会随着层数的增加而指数级地减小,直到几乎消失,导致深层的神经网络参数无法有效更新。这主要是因为使用了像sigmoid和tanh这样的激活函数,它们在输入值较大或较小的情况下,梯度值接近于0。    梯