首页 > 其他分享 >由单个神经元到神经网络,简单全连接神经网络工作解析(李哥 lesson1)

由单个神经元到神经网络,简单全连接神经网络工作解析(李哥 lesson1)

时间:2025-01-18 14:57:10浏览次数:3  
标签:lesson1 神经网络 x2 x3 x1 x4 神经元

一.由单个神经元到神经网络:

        在上个文章我们知道了单个神经元的具体架构,这次我们将从单个神经元出发,探寻简单全连接神经网络的工作过程。

        单个神经元其实就是一个函数,现在我们假设单个神经元的结构都为线性结构(即\hat{y}=wx+b)如图:

        多个神经元相互连接就构成了神经网络

在上图中蓝色正方形分别代表一个参数,我们将其称为x1,x2,x3,x4,上图中每一条线都代表一个权重参数(也就是\hat{y}=wx+b中的w)

也就是说我们可以得到\hat{y}在上图中的最终运算表达式为\hat{y}=\bar{w}1*r1+\bar{w}2*r2+\bar{w}3*r3=\bar{w}1*(w11*x1+w12*x2+W13*x3+w14*x4+b1)+\bar{w}2*(w21*x1+w22*x2+W23*x3+w24*x4+b2)+\bar{w}3*(w31*x1+w32*x2+W33*x3+w34*x4+b3),至此我们得出了此神经网络的预测值\hat{y}

二.激活函数的引入:

        其实通过上面的运算过程不难发现,虽然这个神经网络增加了两个神经元,但是似乎对结果的影响微乎其微,我们将上述表达式稍作整理:\hat{y}=\bar{w}1*(w11*x1+w12*x2+W13*x3+w14*x4+b1)+\bar{w}2*(w21*x1+w22*x2+W23*x3+w24*x4+b2)+\bar{w}3*(w31*x1+w32*x2+W33*x3+w34*x4+b3)=(\bar{w}1*w11+\bar{w}2*w21+\bar{w}3*w31)*x1+(\bar{w}1*w12+\bar{w}2*w22+\bar{w}3*w32)*x2+(\bar{w}1*w13+\bar{w}2*w23+\bar{w}3*w33)*x3+(\bar{w}1*w14+\bar{w}2*w24+\bar{w}3*w34)*x4+\bar{w}1*b1+\bar{w}2*b2+\bar{w}3*b3=\tilde{w}1*x1+\tilde{w}2*x2+\tilde{w}3*x3+\tilde{w}4*x4+B

结果发现本神经网络\hat{y}的运算结果其实和一个神经元的情况下似乎没有差别,其实用大白话来讲就是无论多少根直线加在一起,结果还是直线。

但是我们生活中亟待解决的问题有相当一部分是非线性的问题,那么如何让线性神经元拟合非线性函数呢?很简单,让直线“变软”就行了,这就是激活函数干的事情:让直线“变软”使其能过拟合非线性函数,在每个神经元得出结果后,将在这个结果输入激活函数,然后再把他传到下一层神经元。

三,反向传播与梯度下降

        前面两部分其实就是神经网络前向传播的全过程,接下来我们来研究神经网络中的optimization,也就是反向传播与梯度下降。

        在上篇文章我们知道了,对于单个神经元,梯度下降其实就是优化参数,优化\hat{y}=wx+b中的w和b,使loss值变得更小,优化方式为

对于神经网络而言,梯度下降的意义并没有发生改变,无非就是参数变多了而已,以这张图为例:

如果我要更新w11的参数,那么根据上文得出的\hat{y}计算方式:\hat{y}=\bar{w}1*r1+\bar{w}2*r2+\bar{w}3*r3=\bar{w}1*(w11*x1+w12*x2+W13*x3+w14*x4+b1)+\bar{w}2*(w21*x1+w22*x2+W23*x3+w24*x4+b2)+\bar{w}3*(w31*x1+w32*x2+W33*x3+w34*x4+b3),我们由链式求导法则可得:\dot{w11}=w11-\eta *\frac{\partial lossFunction}{\partial r1}*\frac{\partial r1}{\partial w11}(lossfunction为损失函数,是关于\hat{y}的函数)

其他参数梯度下降方式与w11一样。

标签:lesson1,神经网络,x2,x3,x1,x4,神经元
From: https://blog.csdn.net/m0_58040765/article/details/145226639

相关文章

  • 【深度学习基础】线性神经网络 | softmax回归的从零开始实现
    【作者主页】FrancekChen【专栏介绍】⌈⌈⌈PyTorch深度学习⌋......
  • 带你从入门到精通——深度学习(四. 神经网络一)
    建议先阅读我之前的深度学习博客,掌握一定的深度学习前置知识后再阅读本文,链接如下:带你从入门到精通——深度学习(一.深度学习简介和PyTorch入门)-CSDN博客带你从入门到精通——深度学习(二.PyTorch中的类型转换、运算和索引)-CSDN博客带你从入门到精通——深度学习(三.PyTorch......
  • 轻量级卷积神经网络 (OL-CNN)
    优化后的轻量级卷积神经网络(OL-CNN)目录优化后的轻量级卷积神经网络(OL-CNN)一、模型背景及动机二、模型创新点1.深度可分离卷积2.动态学习率调整3.网络架构优化三、模型网络结构四、代码实现五、实验结果与结论一、模型背景及动机随着......
  • 【大数据】机器学习------神经网络模型
    一、神经网络模型1.基本概念神经网络是一种模拟人类大脑神经元结构的计算模型,由多个神经元(节点)组成,这些节点按照不同层次排列,通常包括输入层、一个或多个隐藏层和输出层。每个神经元接收来自上一层神经元的输入,通过加权求和和激活函数处理后将结果传递给下一层。2.数......
  • Pytorch框架与经典卷积神经网络学习Day4|VGG原理与实战
    目录跟学视频1.原理1.1VGG网络诞生背景 1.2VGG网络结构 1.3VGG总结2.实战2.1model.py2.2model_train.py2.3model_test.py跟学视频炮哥带你学_Pytorch框架与经典卷积神经网络与实战1.原理VGG(VisualGeometryGroup)是一个深度卷积神经网络架构,广泛应用于计算机......
  • 传统图像增强在深度学习神经网络中的应用及代码分析(一)
    摘要在深度学习蓬勃发展的当下,图像数据的质量对神经网络模型的性能有着至关重要的影响。传统图像增强技术作为提升图像质量的重要手段,在深度学习神经网络中发挥着独特而关键的作用。本文深入探讨了传统图像增强在深度学习神经网络中的多方面应用,分析了其在不同领域的应用实例,......
  • 用 Python 从零开始创建神经网络(二十二):预测(Prediction)/推理(Inference)(完结)
    预测(Prediction)/推理(Inference)(完结)引言完整代码:引言虽然我们经常将大部分时间花在训练和测试模型上,但我们这样做的核心原因是希望有一个能够接受新输入并生成期望输出的模型。这通常需要多次尝试训练最优模型,保存该模型,并加载已保存的模型进行推断或预测。以Fashion......
  • 《神经表征与人工智能:从生物到人工神经网络的表征机制研究》
    大脑通过内部表征处理外部信息,神经元活动模式帮助我们理解周围环境大脑通过内部表征处理外部信息的过程是一个复杂而精妙的机制,涉及到神经元的活动模式和信息的编码。以下是对这一点的详细展开:1.内部表征的概念内部表征是指大脑对外部世界的内部模型或映像。它们是大脑......
  • Python、R用深度学习神经网络组合预测优化能源消费总量时间序列预测及ARIMA、xgboost
    全文链接:https://tecdat.cn/?p=38726原文出处:拓端数据部落公众号分析师:QingxiaWang在能源领域,精准预测能源消费总量对制定合理能源战略至关重要。当前,能源消费预测分析主要运用单一模型(如灰色预测法、时间序列分析法等)和组合模型两种方式。然而,单一模型存在系统误差较高、预测......
  • Python深度学习GRU、LSTM 、BiLSTM-CNN神经网络空气质量指数AQI时间序列预测及机器学
    全文链接:https://tecdat.cn/?p=38742原文出处:拓端数据部落公众号分析师:ZhixiongWeng 人们每时每刻都离不开氧,并通过吸入空气而获得氧。一个成年人每天需要吸入空气达6500升以获得足够的氧气,因此,被污染了的空气对人体健康有直接的影响,空气品质对人的影响更是至关重要。每出现......