首页 > 其他分享 >【机器学习】机器学习中的人工神经元模型有哪些?

【机器学习】机器学习中的人工神经元模型有哪些?

时间:2024-06-16 09:28:01浏览次数:22  
标签:机器 函数 模型 Neuron 学习 线性 输入 神经元

  1. 线性神经元
    线性神经元(Linear Neuron)是一种基本的人工神经元模型,特点是其输出是输入的线性组合。线性神经元是神经网络中最简单的一种形式,适用于处理线性关系的问题。数学模型如下,

y = w ⋅ x + b = ∑ i = 1 n w i x i + b y = \mathbf{w} \cdot \mathbf{x} + b = \sum_{i=1}^n w_i x_i + b y=w⋅x+b=i=1∑n​wi​xi​+b
在这里插入图片描述

  1. 非线性神经元
  • 引入非线性激活函数,如Sigmoid、Tanh、ReLU、ELU、PReLU或者Leak ReLU,以允许网络学习更复杂的模式。
    在这里插入图片描述

  • 应用现代神经网络的普遍使用。

  1. 自适应线性神经元(Adaptive Linear Neuron, Adaline)
  • 自适应线性神经元(Adaptive Linear Neuron,简称ADALINE)是一种早期的人工神经网络模型,由Bernard Widrow和Ted Hoff在1960年提出。ADALINE是感知器(Perceptron)的一个扩展,但使用线性激活函数,并且采用梯度下降法来调整权重。这使得它在处理线性可分问题和线性回归任务上非常有效。ADALINE的基本结构和感知器类似,但其激活函数是线性的。这意味着ADALINE在输出层不会应用阶跃函数,而是直接输出加权和。ADALINE的数学模型如和线性神经元一样,如下
    • 计算加权和:将输入信号和权重进行线性组合,再加上偏置项:
      y = w ⋅ x + b = ∑ i = 1 n w i x i + b y = \mathbf{w} \cdot \mathbf{x} + b = \sum_{i=1}^n w_i x_i + b y=w⋅x+b=i=1∑n​wi​xi​+b

但是线性神经元 通常用作描述线性回归模型,可以使用不同的优化算法。ADALINE 明确采用梯度下降法,并且其主要创新在于使用均方误差作为损失函数来调整权重。
在这里插入图片描述

  1. 感知机神经元(Perceptron Neuron)
  • Perceptron模型是由弗兰克·罗森布拉特(Frank Rosenblatt)在1958年提出的,是对McCulloch-Pitts神经元模型的扩展。Perceptron神经元的结构与McCulloch-Pitts神经元相似,但具有更灵活的学习能力。输入信号可以是连续值而不是二进制。
    数学模型为
    y = { 1 if  ∑ i = 1 n w i x i + b ≥ 0 0 otherwise y = \begin{cases} 1 & \text{if } \sum_{i=1}^n w_i x_i + b \geq 0 \\ 0 & \text{otherwise} \end{cases} y={10​if ∑i=1n​wi​xi​+b≥0otherwise​
    在这里插入图片描述
  1. McCulloch-Pitts神经元
  • McCulloch-Pitts神经元是一个二进制阈值设备,输入是一组二进制输入信号 x 1 , x 2 , . . . , x n x_1, x_2, ..., x_n x1​,x2​,...,xn​,每个输入要么是0要么是1。这个神经元的输出 y是通过以下步骤计算的:
    • 计算输入信号和权重的加权和: S = ∑ i = 1 n w i x i S = \sum_{i=1}^n w_i x_i S=∑i=1n​wi​xi​。
    • 将加权和与阈值进行比较:如果 S ≥ θ S \geq \theta S≥θ,则输出 y = 1;否则输出y = 0。
      数学模型为
      y = { 1 if  ∑ i = 1 n w i x i ≥ θ 0 otherwise y = \begin{cases} 1 & \text{if } \sum_{i=1}^n w_i x_i \geq \theta \\ 0 & \text{otherwise} \end{cases} y={10​if ∑i=1n​wi​xi​≥θotherwise​

在这里插入图片描述

  1. 径向基函数神经元(Radial Basis Function, RBF Neuron)
  • 使用径向基函数作为激活函数,能够对输入空间进行非线性映射。
  • 应用函数逼近、模式识别。
  1. 径向基概率神经元(Radial Basis Probabilistic Neuron, RBPNN)
  • 结合了RBF神经元和概率模型,用于分类和回归任务。
  • 应用统计模式识别。
  1. 模糊神经元
  • 使用模糊逻辑作为激活函数,能够处理不确定性和模糊性。
  • 应用模糊控制系统。
  1. 自组织映射神经元(Self-Organizing Map, SOM Neuron)
  • 一种无监督学习的神经元,能够将高维输入数据映射到低维空间。
  • 应用数据可视化、聚类分析。
  1. CMAC神经元(Cerebellar Model Articulation Controller, CMAC Neuron)
  • 一种局部学习的神经元,常用于控制理论。
  • 应用机器人控制、实时系统。
  1. LIF神经元(Leaky Integrate-and-Fire Neuron)
  • 一种生物物理模型,模拟了生物神经元的放电特性。
  • 应用生物神经网络模拟。
    在这里插入图片描述
  1. Izhikevich神经元
    Izhikevich神经元模型是由Eugene Izhikevich在2003年提出的,它结合了生物学上的真实性和计算上的效率。该模型能够捕捉到多种生物神经元的复杂放电模式,同时计算复杂度较低,使其在大规模神经网络模拟中非常有用。该模型使用两个变量 v v v 和 u u u 来描述神经元的动态行为:
  • v v v 表示膜电位。
  • u u u 表示恢复变量,捕捉膜电位的复原机制。

模型的微分方程为:

d v d t = 0.04 v 2 + 5 v + 140 − u + I \frac{dv}{dt} = 0.04v^2 + 5v + 140 - u + I dtdv​=0.04v2+5v+140−u+I

d u d t = a ( b v − u ) \frac{du}{dt} = a(bv - u) dtdu​=a(bv−u)

其中, I I I 是外部输入电流, a a a、 b b b、 c c c 和 d d d 是模型参数,用于调整神经元的放电特性。放电后的重置条件为:
当 v ≥ 30 v\geq 30 v≥30 mV 时:
v ← c v \leftarrow c v←c
u ← u + d u \leftarrow u + d u←u+d

  1. Spiking神经元
  • 模拟生物神经元的尖峰放电行为,是神经形态计算的基础。
  • 应用神经形态工程、生物启发的计算模型。
    在这里插入图片描述
  1. Swish神经元
  • Swish是一种自门控的激活函数,它在不同的输入下有不同的行为,表现出非单调特性。
    在这里插入图片描述
  1. Boltzmann神经元
  • Boltzmann 神经元是一种在 Boltzmann 机(Boltzmann Machine)中使用的神经元模型。Boltzmann 神经元是二值的,即其状态只能是 0 或 1。它们通过概率性规则来更新状态,这些规则依赖于其他神经元的状态和连接权重。Boltzmann 神经元的状态更新遵循以下概率性规则:

    • 神经元 i i i 的状态 s i s_i si​ 可以是 0 或 1。
    • 神经元 i i i 的状态以一定的概率 P ( s i = 1 ) P(s_i = 1) P(si​=1) 更新,这个概率取决于当前网络的状态和神经元的输入信号。

该概率通常使用 logistic 函数来表示:

P ( s i = 1 ) = 1 1 + exp ⁡ ( − E i ) P(s_i = 1) = \frac{1}{1 + \exp(-E_i)} P(si​=1)=1+exp(−Ei​)1​

其中 E i E_i Ei​ 是神经元 i i i 的输入信号,总和来自其他神经元的输入加上偏置项:

E i = ∑ j w i j s j + b i E_i = \sum_{j} w_{ij} s_j + b_i Ei​=j∑​wij​sj​+bi​

  • w i j w_{ij} wij​ 是从神经元 j j j 到神经元 i i i 的连接权重。
  • b i b_i bi​ 是神经元 i i i 的偏置项。
  • s j s_j sj​ 是神经元 j j j 的状态。

标签:机器,函数,模型,Neuron,学习,线性,输入,神经元
From: https://blog.csdn.net/weixin_43935696/article/details/139705624

相关文章

  • PyTorch学习9:卷积神经网络
    文章目录前言一、说明二、具体实例1.程序说明2.代码示例总结前言介绍卷积神经网络的基本概念及具体实例一、说明1.如果一个网络由线性形式串联起来,那么就是一个全连接的网络。2.全连接会丧失图像的一些空间信息,因为是按照一维结构保存。CNN是按照图像原始结构进......
  • 【C++学习笔记 3】指针
    指针的本质指针实际上就是一个整数,存储着一个内存地址。不必执着于用“类型”的概念区分,那只是为了方便设计出来的,所有的指针,本质上都是一个整数,存储着一个内存的地址。#include<iostream>#defineLOG(x)std::cout<<x<<std::endlintmain(){ intvar=8; ......
  • gbase8s的select查询数据物理位置寻址分析和学习
    1.执行的sql语句和目的执行的sql语句selectrowid,*fromtest1whereid=1;目的:查找到test1表中id=1这个值在硬盘中的真实位置并取出2.寻址的过程-确定表的数据空间和逻辑页的信息根据表名查看这张表的数据空间位置和逻辑页号[gbasedbt@iZ2ze5s78e4tanwe5q2znxZ~]$......
  • 泰山派学习12--GPIO_LED字符设备驱动
    一、GPIO寄存器1、对GPIO进行控制有以下步骤①:是能GPIO的时钟(默认开启,不用配置);②:设置引脚复用为GPIO(复位默认配置GPIO,不用配置);③:设置引脚属性(上下拉、速率、驱动能力,默认不用配置);④:控制GPIO引脚为输出,并且输出高低电平。2、GPIO功能引脚及寄存器rk3566有5个gpio控制器......
  • 算法金 | 选择最佳机器学习模型的 10 步指南
    大侠幸会,在下全网同名[算法金]0基础转AI上岸,多个算法赛Top[日更万日,让更多人享受智能乐趣]机器学习和数据科学领域的工作充满挑战和乐趣,在我踏上人工智能探索之路的初期,我对能够参与项目感到无比兴奋。我满怀热情,我急切地想投身于这些项目中。但是,我尝试开展项目,却发现......
  • 分段锁学习
    转自:https://cloud.tencent.com/developer/article/1150780,https://abcdabcd987.com/sharding/,给的例子贼牛1.介绍独占锁会降低性能。一般有三种方式降低锁的竞争程度:1、减少锁的持有时间2、降低锁的请求频率3、使用带有协调机制的独占锁,这些机制允许更高的并发性。(使用分段......
  • 泰山派学习10--内核驱动模块
    1、编写内核驱动模块hello.c2、编写makefile3、编译makemodule4、拷贝到开发板adbpush./hello.ko/home/zbl/drv5、修改文件执行权限chmod777hello.ko6、加载内核驱动sudoinsmodhello.ko7、查看下加载是否成功lsmod8、卸载内核驱动sudormmodhello.ko /**......
  • Sandbox | 免费在线的生信交互学习平台
    Sandbox.bio是一个生物信息学沙盒平台,允许用户在安全隔离的环境中运行生物信息学实验。它提供各种工具和资源,包括数据库、算法和工具包,可用于各种生物信息学任务,例如数据分析、模型构建和机器学习。网站:https://sandbox.bio/可以从零练习Linux基本操作,以及生信相关的一些基础......
  • 机器视觉入门学习:YOLOV5自定义数据集部署、网络详解、损失函数(学习笔记)
     前言源码学习资源:YOLOV5预处理和后处理,源码详细分析-CSDN博客网络学习资源:YOLOv5网络详解_yolov5网络结构详解-CSDN博客YOLOv5-v6.0学习笔记_yolov5的置信度损失公式-CSDN博客 本文为个人学习,整合各路大佬的资料进行V5-6.0版本的网络分析,在开始学习之前最好先去学习YOL......
  • 泰山派学习11--字符设备驱动
    1、字符设备定义应用程序按字节/字符来读写数据的设备,不支持随机存取数据,系统直接从设备读取/写入每一个字符。2、字符设备抽象Linux内核中将字符设备抽象成一个具体的数据结构(structcdev),理解为字符设备对象。字符设备的打开、读写、关闭等操作接口(file_operation......