- 2025-01-07Ultra-Low Precision 4-bit Training of Deep Neural Networks
目录概主要内容Radix-4FP4formatGradScaleTwo-PhaseRounding(TPR)SunX.,WangN.,ChenC.,NiJ.,AgrawalA.,CuiX.,VenkataramaniS.andMaghraouiK.E.andSrinivasanV.Ultra-lowprecision4-bittrainingofdeepneuralnetworks.NeurIPS,2020.概本文
- 2025-01-06Scalable Methods for 8-bit Training of Neural Networks
目录概RangeBatchNormalization代码BannerR.,HubaraI.,HofferE.andSoudryD.Scalablemethodsfor8-bittrainingofneuralnetworks.NeurIPS,2018.概本文针对BatchNorm模块在低精度(8-bit)的情况下进行一个合适的改进.RangeBatchNormalization对于
- 2025-01-05Training Deep Neural Networks with 8-bit Floating Point Numbers
目录概主要内容WangN.,ChoiJ.,BrandD.,ChenC.andGopalakrishnanK.Trainingdeepneuralnetworkswith8-bitfloatingpointnumbers.NeurIPS,2018.概本文提出了一种8-bit的训练方式.主要内容本文想要实现8-bit的训练,作者认为主要挑战是两个向量的
- 2025-01-03论文阅读:Securely Outsourcing Neural Network Inferenceto the Cloud with Lightweight Techniques
目录1.引言(Introduction)2.预备知识(Preliminary)2.1加法秘密共享(AdditiveSecretSharing)3.系统概述(SystemOverview)3.1系统架构3.2威胁模型与隐私目标4.设计方案(ProposedDesign)4.1安全卷积层(SCONV)4.2安全批归一化(SBN)4.3安全ReLU激活(SReLU)4.4安全最大池
- 2025-01-03HAWQ: Hessian AWare Quantization of Neural Networks With Mixed-Precision
目录概HAWQ(HessianAWareQuantization)DongZ.,YaoZ.,GholamiA.,MahoneyM.W.andKeutzerK.HAWQ:Hessianawarequantizationofneuralnetworkswithmixed-precision.ICCV,2019.概本文利用Hessian的topeigenvalues来定位对应block所需要的量化bitw
- 2024-12-24Accurate Neural Training with 4-bit Matrix Multiplications at Standard Formats
目录概LogarithmicUnbiasedQuantization代码ChmielB.,BannerR.,HofferE.,YaacovH.B.andSoundryD.Accurateneuraltrainingwith4-bitmatrixmultiplicationsatstandardformats.ICLR,2023.概本文希望实现4-bit的模型训练和推理.提出了一种logarithm
- 2024-12-19全球气候变化驱动因素预测方法
全球气候变化驱动因素预测方法https://mp.weixin.qq.com/s/wJ78dhfBbC7GAYRb52e1Ww?token=903615341&lang=zh_CN全球气候变化是现代社会面临的最重要的环境挑战之一,影响了气温、降水、海平面、生态系统等多个方面。气候变化的驱动因素主要包括温室气体排放、气溶胶浓度、火灾
- 2024-12-16AlexNet: ImageNet Classification with Deep Convolutional Neural Networks
摘要:在ImageNet竞赛中,主要使用8层(5个卷积层、三个全连接层),其中在第1,2,5层使用最大池化,三个全连接层使用softmax非线性激活。实现图像分类,正是AlexNet网络模型的结构,在传统的神经网络模型中,使用非饱和和高效的CPU来卷积操作,同时也是用“dropout”(正则化)来减少过拟合。1介绍对于
- 2024-12-11论文解读-Graph neural networks: A review of methods and applications
论文介绍这篇论文是图神经网络领域的综述性质的文章,从各个论文里面凝聚和提取了很多精炼的信息和观点,值得一读。论文是2020年成稿投出去的,有点陈旧的。 GNN的介绍在introduction里面对比了GNN和CNN,表示出CNN的关键是局部连接,共享权重,和多层的使用。其中CNN操作的是常规
- 2024-12-08【AI学习笔记3】神经元、神经网路与感知机 Neuron、Neural Network and Perceptron
一、从生物神经元到人工神经网络 每个神经元细胞都向外伸出许多分支,其中用来接收输入的分支称作树突(dendrites),用来输出信号的分支称作轴突(axon),轴突连接到树突上形成一个突触(synapse)。每个神经元可以通过这种方式连接多个其他神经元,每个神经元也可以接受多个其他
- 2024-12-04[论文阅读] Breaking the Representation Bottleneck of Chinese Characters{colon}Neural Machine Translation
Pretitle:BreakingtheRepresentationBottleneckofChineseCharacters:NeuralMachineTranslationwithStrokeSequenceModelingaccepted:EMNLP2022paper:https://arxiv.org/abs/2211.12781code:https://github.com/zjwang21/StrokeNet关键词:NMT(neuralmachin
- 2024-11-28论文解读《Neural Cleanse: Identifying and Mitigating Backdoor Attacks in Neural Networks》
发表时间:2019期刊会议:IEEESymposiumonSecurityandPrivacy(S&P)论文单位:UCSantaBarbara论文作者:BolunWang,YuanshunYao,ShawnShan,HuiyingLi,BimalViswanath,HaitaoZheng,BenY.Zhao方向分类:BackdoorAttack论文链接开源代码摘要深度
- 2024-11-23Hardware/Software Co-Exploration of Neural Architectures——神经架构的硬件/软件协同探索
在一些研究工作中,探索实践与硬件平台端协同探索的方式来指导神经网络模型的结构设计优化,本文是对《Hardware/SoftwareCo-ExplorationofNeuralArchitectures》论文的阅读学习整体的论文阅读笔记,感兴趣的话可以参考下,如果想要进一步了解工作内容详情,建议移步阅读原英文论文,地
- 2024-12-06【机器学习】支持向量机(SVM)详解:原理与优化
支持向量机(SVM)详解:原理与优化支持向量机(SVM)详解1.基本概念2.数学原理2.1线性可分情况2.2最优化问题2.3拉格朗日对偶问题2.4核函数技巧(KernelTrick)2.5非线性分类与支持向量3.优缺点分析3.1优点3.2缺点4.SVM与其他算法的比较5.总结支持向量机(SVM
- 2024-11-28大核选择卷积模块 LSK
importtorchimporttorch.nnasnn#Github地址:https://github.com/zcablii/Large-Selective-Kernel-Network#论文地址:https://openaccess.thecvf.com/content/ICCV2023/papers/Li_Large_Selective_Kernel_Network_for_Remote_Sensing_Object_Detection_ICCV_2023_paper.pdfc
- 2024-10-15自然语言处理之语音识别:Convolutional Neural Networks (CNN):深度学习与神经网络基础
自然语言处理之语音识别:ConvolutionalNeuralNetworks(CNN):深度学习与神经网络基础深度学习与神经网络基础subdir1.1:神经网络的基本概念神经网络是一种模仿人脑神经元结构的计算模型,用于处理复杂的数据模式识别和预测问题。它由输入层、隐藏层和输出层组成,每一层
- 2024-10-15自然语言处理之语音识别:Convolutional Neural Networks(CNN)与迁移学习_
自然语言处理之语音识别:ConvolutionalNeuralNetworks(CNN)与迁移学习自然语言处理与语音识别基础自然语言处理概览自然语言处理(NLP)是人工智能领域的一个重要分支,它关注如何使计算机能够理解、解释和生成人类语言。NLP技术广泛应用于文本分类、情感分析、机器翻译、问
- 2024-10-10机器学习之神经网络Neural Network
第一部分:基本含义神经网络(NeuralNetwork)是一种模仿人脑神经元连接方式的机器学习模型,用于处理复杂的非线性问题。通过大量的参数和层级结构,神经网络可以学习数据中的特征,应用于分类、回归等任务。机器学习和人类实现人生巅峰的例子对比:如果把人比作神经网络,一次次摔倒就是
- 2024-10-09CS 259 Accelerating Convolutional Neural Network
Fall2024CS259Lab1AcceleratingConvolutionalNeuralNetwork(CNN)onFPGAsusingMerlinCompilerDueOctober911:59pmDescriptionYourtaskistoacceleratethecomputationoftwolayersinaconvolutionalneuralnetwork(CNN)usingahigh-levelsynt
- 2024-10-08《神经网络》—— 循环神经网络RNN(Recurrent Neural Network)
文章目录一、RNN简单介绍二、RNN基本结构1.隐藏中的计算2.输出层的计算3.循环三、RNN优缺点1.优点2.缺点一、RNN简单介绍循环神经网络(RecurrentNeuralNetwork,RNN)是一种用于处理序列数据的神经网络架构。与传统的前馈神经网络(FeedforwardNeuralNetwork
- 2024-10-03自然语言处理之话题建模:Neural Topic Models:神经主题模型的未来趋势与研究方向_
自然语言处理之话题建模:NeuralTopicModels:神经主题模型的未来趋势与研究方向引言话题建模的定义与重要性话题建模是一种统计建模技术,用于发现文档集合或语料库中隐藏的主题结构。在自然语言处理(NLP)领域,话题建模被广泛应用于文本挖掘、信息检索、文本分类和推荐系统等