首页 > 其他分享 >Going Deeper With Directly-Trained Larger Spiking Neural Networks

Going Deeper With Directly-Trained Larger Spiking Neural Networks

时间:2023-03-22 14:58:21浏览次数:45  
标签:Deeper 训练 Neural SNN Larger Experiment AAAI 时空 Spiking

郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布!

The Thirty-Fifth AAAI Conference on Artificial Intelligence (AAAI-21)

 

Abstract

  脉冲神经网络(SNN)在时空信息和事件驱动信号处理的生物可编程编码中很有前途,非常适合在神经形态硬件中实现节能。然而,SNN独特的工作模式使其比传统网络更难训练。目前,有两条主要路线来探索高性能深度SNN的训练。第一种是将预先训练的ANN模型转换为其SNN版本,SNN版本通常需要很长的编码窗口才能收敛,并且不能在训练过程中利用时空特征来解决时间任务。另一种是在时空域中直接训练SNN。但是,由于发放函数的二值脉冲活动和梯度消失或爆炸的问题,当前的方法仅限于浅层架构,因此难以利用大规模数据集(例如ImageNet)。为此,我们提出了一种基于新兴时空反向传播的阈值相关批归一化(tdBN)方法,称为“STBP-tdBN”,能够直接训练非常深的SNN,并在神经形态硬件上有效实现其推理。通过所提出的方法和详细的跳连,我们将直接训练的SNN从浅层结构(<10层)显著扩展到非常深的结构(50层)。此外,我们还从理论上分析了基于“块体动力学等距”(Block Dynamical Isometry)理论的方法的有效性。最后,我们报告了优越的准确率结果,包括在CIFAR-10上的93.15%,在DVS-CIFR10上的67.8%,以及在ImageNet上的67.05%,时间步长非常少。据我们所知,这是第一次在ImageNet上探索直接训练的高性能深度SNN。我们相信这项工作将为充分利用SNN的优势铺平道路,并吸引更多的研究人员在该领域做出贡献。

 

Introduction

 

Related Work

Learning algorithm of SNNs

Gradient vanishing or explosion in the deep neural network (DNN)

Normalization

 

Materials and Methods

Iterative LIF Model

 

Threshold-dependent Batch Normalization

 

Overall Training Algorithm

 

Theoretical Analysis

Gradient Norm Theory

Influence of membrane decay mechanism

 

Scaling Factors

 

Deep Spiking Residual Network

 

Experiment

 

Experiment on Static Datasets

 

Experiment on Neuromorphic Datasets

 

Conclusion

标签:Deeper,训练,Neural,SNN,Larger,Experiment,AAAI,时空,Spiking
From: https://www.cnblogs.com/lucifer1997/p/17243913.html

相关文章