首页 > 其他分享 >神经网络相关(1)

神经网络相关(1)

时间:2023-08-07 22:45:00浏览次数:47  
标签:10 plt 1.0 偏置 神经网络 np 相关 神经元

神经网络 权重w 偏置b 激励函数 f = Σxw + b 上层网络→下层网络 m*n矩阵代表权重矩阵;偏置的数量和下层网络的神经元数量一致,为n; u = np.dot(x,w) + b 一般来说,输出层的神经元数量n个,则用n阶形式的独热编码格式数据来表示   几种激励函数: 1、阶跃函数 阶梯型函数,类似分段函数但是分段水平 def step_function(x):   return np.where(x<=0,0,1) 2、sigmoid函数 在0-1间平滑变化 def sigmoid_function(x):   return 1/(1+np.exp(-x)) 3、tanh函数(双曲正切函数) def tanh_function(x):   return np.tanh(x) 4、ReLU函数(线性整流函数) def relu_function(x):   return np.where(x<=0,0,x) 5、Leaky ReLU函数 对ReLU进行了改进,使其在负数区域增加了一个小的梯度,避免输出为0影响后续学习 def leaky_relu_function(x):   return np.where(x<=0,0.01*x,x) 6、恒等函数 将输入直接作为输出返回;处理预测连续数值中存在的回归问题用 y = x 7、SoftMax函数 形式类似概率公式,可以将输出结果当做概率来解释 def softmax_function(x):   return np.exp(x)/np.sum(np.exp(x))   单一神经元实现:

import numpy as np
import matplotlib.pyplot as plt

X = np.arange(-1.0,1.0,0.2)
Y = np.arange(-1.0,1.0,0.2)

Z = np.zeros((10,10))

w_x = 2.5 
#权重的影响是:对应的输入对结果影响的大小,在这里表示为神经元的兴奋状态依赖于x轴变化的程度
w_y = 3.0

bias = 0.1
#偏置的影响是:神经元是否易于产生兴奋,网格颜色的变化加速度

for i in range(10):
    for j in range(10):
        u = X[i]*w_x + Y[j]*w_y + bias
        y = 1/(1+np.exp(-u))
        Z[i][j] = y
        
plt.imshow(Z,"gray",vmin=0.0,vmax=1.0)

plt.colorbar()
plt.show()
https://zhuanlan.zhihu.com/p/96040773        

标签:10,plt,1.0,偏置,神经网络,np,相关,神经元
From: https://www.cnblogs.com/bbnltxdy/p/17612948.html

相关文章

  • 神经网络相关(2)
    多个神经元的实现——回归问题:  %matplotlibinline#IPython的魔法函数,可以在IPython编译器里直接使用,作用是内嵌画图,省略掉plt.show()这一步,直接显示图像importnumpyasnpimportmatplotlib.pyplotaspltX=np.arange(-1.0,1.0,0.2)Y=np.arange(-1.0,1.0......
  • ArrayList底层原理、线程安全及其相关集合(面试常问)
    一、ArrayList底层原理1.特点及其原理:ArrayList底层基于数组实现,查找快,增删慢2.ArrayList底层原理,初始化及调用add()方法添加元素:默认初始化容量为10第一次创建集合并在添加第一个元素时在底层创建一个默认长度为10的数组:​调用构造函数初始化时默认创建的是空数组只......
  • 视频融合平台视频汇聚平台LiteCVR与文旅大数据平台相关案例概念分享
    LiteCVR视频融合平台是一个基于云边端协同架构的平台,旨在支持旅游行业的信息化建设和智能化管理需求。该平台具备多种视频能力,包括监控直播、云端录像、云存储、录像检索与回看、智能告警、平台级联、语音对讲和智能分析等功能。它可以广泛应用于旅游、工地、工厂、园区、楼宇、校......
  • 6.6 实现卷积神经网络LeNet训练并预测手写体数字
    模型架构代码实现importtorchfromtorchimportnnfromd2limporttorchasd2lnet=nn.Sequential(nn.Conv2d(1,6,kernel_size=5,padding=2),nn.Sigmoid(),#padding=2补偿5x5卷积核导致的特征减少。nn.AvgPool2d(kernel_size=2,stride=2),nn.Conv2d(6,16,kern......
  • 深度神经网络调优
    1.选择合适的模型架构总结:当开始一个新的工程时,试着复用已经有效果的模型1)首先,选择一个已经被广泛使用和建立起来的模型架构来先让其正常工作。可以在以后再建立一个定制化的模型。2)模型架构一般都具有多种超参数,这些超参数决定了模型的尺寸和其他一些细节(如,层数,层宽,激活函数......
  • 服务器相关配置
    服务器相关配置地址:www.zhangqihao.cn服务列表网站:index.zhangqihao.cnVPN例如数据库等服务因安全因素未暴露到公网,所以需要挂vpn访问内网OpenVPN客户端在SynologyDrive上的位置为:团队文件夹/Repository/群晖软件/OpenVPN-2.6.5OpenVPN配置文件在SynologyDrive上的位......
  • 二分图相关定理
    最长反链:一张有向无环图的最长反链为一个集合\(S\subseteqV\),满足对于\(S\)中的任意两个不同的点\(u,v\inS(u\nev)\),\(u\)不能到达\(v\),\(v\)也不能到达\(u\),且\(S\)的大小尽量大最小不可重链覆盖:在DAG中选出若干条链,经过每个点一次,且链数尽量少最小点覆盖:......
  • 【我和openGauss的故事】 openGauss 5.0.0 事务相关语法
    【我和openGauss的故事】openGauss5.0.0事务相关语法秋秋openGauss2023-08-0316:49发表于四川众所周知,openGauss是一款开源关系型数据库管理系统,采用木兰宽松许可证v2发行,是PostgreSQL9.2.4版本的硬分叉,经历HUAWEI多年的孵化,并已历经了两个LTS版本。现在的openGau......
  • Linux 相关,个人整理的一些零碎笔记 2021-12-13
    df-lh接下来的四个字段Size、Used、Avail、及Use%分别是该分割区的容量、已使用的大小、剩下的大小、及使用的百分比du命令:查询文件或文件夹的磁盘使用空间如果当前目录下文件和文件夹很多使用不带参数du的命令,可以循环列出所有文件和文件夹所使用的空间。这对查看究竟是......
  • 论文分析|利用图神经网络挖掘群组信息进行个性化推荐
    ExploitingGroupInformationforPersonalizedRecommendationwithGraphNeuralNetworks论文分析初步论文分析推荐系统的关键问题是如何对用户偏好进行建模。已有工作大多利用用户历史数据学习用户偏好,但面临数据稀疏问题。在线社交网络的流行促进了在线讨论组的增加,同一......