• 2024-07-06Towards Accurate and Robust Architectures via Neural Architecture Search
    基于网络架构搜索的准确性与鲁棒性结构研究论文链接:https://arxiv.org/abs/2405.05502项目链接:未开源Abstract为了保护深度神经网络免受对抗性攻击,对抗性训练因其有效性而受到越来越多的关注。然而,对抗训练的准确性和鲁棒性受到体系结构的限制,因为对抗训练通过调整隶属
  • 2024-07-05脉冲神经网络(Spiking Neural Network,SNN)相关论文最新推荐(一)
    用稀疏代理梯度直接训练时态脉冲神经网络论文链接:www.sciencedirect.comBenchmarkingArtificialNeuralNetworkArchitecturesforHigh-PerformanceSpikingNeuralNetworks论文链接:www.mdpi.comHierarchicalspikingneuralnetworkauditoryfeaturebaseddry-typet
  • 2024-07-03深度学习第一课 Neural Networks and Deep Learning
    NeuralNetworksandDeepLearningweek1深度学习概论1.1欢迎1.2什么是神经网络Relurecity:取不小于0的值我们把房屋的面积作为神经网络的输入(我们称之为x),通过一个节点(一个小圆圈),最终输出了价格(我们用y表示)。其实这个小圆圈就是一个单独的神经元。神经网络当你
  • 2024-07-02文献阅读-Distributed Constrained Combinatorial Optimization leveraging Hypergraph Neural Networks
    DistributedConstrainedCombinatorialOptimizationleveragingHypergraphNeuralNetworks  AbstractScalableaddressingofhighdimensionalconstrainedcombinatorialoptimizationproblemsisachallengethatarisesinseveralscienceandengineering
  • 2024-07-01Identity-aware Graph Neural Networks
    目录概ID-GNNYouJ.,Gomoes-SelmanJ.,YingR.andLeskovecJ.Identity-awaregraphneuralnetworks.AAAI,2021.概提出了一种能够超越1-WL-Test的GNN.ID-GNNID-GNN的motivation主要如下:主要到,传统的MPNN,即第\(k\)层:\[\mathbf{m}_u^{(k)}=\t
  • 2024-06-12Neural machine translation of rare words with subword units
    郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Abstract 1Introduction  2NeuralMachineTranslation 3SubwordTranslation 3.1RelatedWork 3.2BytePairEncoding(BPE) 4Evaluation 4.1Subwordstatistics 4.2Translation
  • 2024-06-04neural network structure 神经网络
    分类多层感知神经网络——最基础卷积神经网络——善于图像识别长短期记忆网络——善于语音识别多层感知——数字识别以一张28*28像素的单个数字图片为例,输出对应0-9![](file:///C:\Users\ADMINI~1\AppData\Local\Temp\ksohtml17560\wps1.jpg)每个像素点的灰度值0-1,即输入为
  • 2024-05-29Neural Filters:着色
    Ps菜单:滤镜/NeuralFilters/颜色/着色NeuralFilters/COLOR/Colorize着色Colorize滤镜可以对黑白照片自动着色,也为彩色照片简化色彩提供了有力的支持。“着色”滤镜利用深度学习技术,对输入的黑白或彩色照片进行分析,识别图像中的物体、背景和其他元素。然后,根据图像内容和
  • 2024-05-29Neural Filters:照片恢复
    Ps菜单:滤镜/NeuralFilters/恢复/照片恢复NeuralFilters/RESTORATION/Photo Restoration照片恢复 Photo Restoration借助AI强大功能快速恢复旧照片,提高对比度、增强细节、消除划痕。将此滤镜与着色相结合以进一步增强效果。“照片恢复”滤镜利用深度学习和图像处理
  • 2024-05-29The stuff make you know 90% of what matters today
    ThetechnicalpaperstoshowyouthekeyunderthehoodtechnologiesinAI-2024-05-101.TheAnnotatedTransformer(AttentionisAllYouNeed-https://arxiv.org/pdf/1706.03762)https://nlp.seas.harvard.edu/annotated-transformer/TheTransformerhasbee
  • 2024-05-28I. NeRF 及其衍生算法的初步探究
    I.NeRF及其衍生算法的初步探究视频链接:【AI講壇】NeRF與它的快樂夥伴們[Neuralradiancefields]NeRF的主要优势:能够正确处理反光、估算的深度较准、等等。一、nerfinthewildGoogleResearch、未开源NeRFintheWild:NeuralRadianceFieldsforUnconstrainedPhot
  • 2024-05-28I. NeRF及其衍生算法的初步探究
    视频链接:【AI講壇】NeRF與它的快樂夥伴們[Neuralradiancefields]NeRF的主要优势:能够正确处理反光、估算的深度较准、等等。一、nerfinthewildGoogleResearch、未开源NeRFintheWild:NeuralRadianceFieldsforUnconstrainedPhotoCollections.CVPR2021(Oral)
  • 2024-04-27Simple Neural Network
    神经网络——从PLA到BP神经网络0.推荐阅读B站白板推导系列二十三(没有任何数学推导,能够看得很舒服)李沐-动手学深度学习1.感知机学习算法(PerceptronLearningAlgorithm)相信能看到神经网络的朋友对于机器学习的基础算法已经了解了个大概了,如果你没有听说过感知机算法,
  • 2024-04-09深度探索:机器学习神经图灵机(Neural Turing Machines, NTMs)原理及其应用
    目录1.引言与背景2.定理3.算法原理4.算法实现5.优缺点分析优点:缺点:6.案例应用7.对比与其他算法8.结论与展望1.引言与背景在人工智能与机器学习的前沿研究中,如何赋予计算机系统更强大的学习与推理能力,使其能模拟人类大脑的复杂认知过程,一直是科学家们不懈探索的
  • 2024-03-29【论文阅读】ELA: Efficient Local Attention for Deep Convolutional Neural Networks
    (ELA)EfficientLocalAttentionforDeepConvolutionalNeuralNetworks论文链接:ELA:EfficientLocalAttentionforDeepConvolutionalNeuralNetworks(arxiv.org)作者:WeiXu,YiWan单位:兰州大学信息科学与工程学院,青海省物联网重点实验室,青海师范大学引用:XuW,W
  • 2024-03-23DualGNN: Dual Graph Neural Network for Multimedia Recommendation
    目录概符号说明DualGCN代码WangQ.,WeiY.,YinJ.,WuJ.,SongX.andNieL.DualGNN:Dualgraphneuralnetworkformultimediarecommendation.IEEETransactionsonMultimedia,2023.概多模态+userco-occureencegraph->recommendation.文章中提到的modali
  • 2024-03-13Adaptive Diffusion in Graph Neural Networks论文阅读笔记
    AdaptiveDiffusioninGraphNeuralNetworks论文阅读笔记Abstract​ 最近提出了图扩散卷积(GDC),利用广义图扩散来扩展传播邻域。然而,GDC中的邻域大小是通过在验证集上进行网格搜索来手动对每个图进行调整的,这使得其泛化实际上受到了限制。为了解决这个问题,我们提出了自适应扩散
  • 2024-03-13【PR】Block-NeRF: Scalable Large Scene Neural View Synthesis
    【简介】 本文的作者来自UCBerkeley,Waymo和Google研究院,一听就是大佬。发表在CVPR2022。  【创新点】  【review】  【方法】   【结论】  【参考】TancikM,CasserV,YanX,etal.Block-nerf:Scalablelargesceneneuralviewsynth
  • 2024-03-13Be Your Own Teacher: Improve thePerformance of Convolutional Neural Networks viaSelf Distillation
    摘要本文中,提出了一种名为自蒸馏的通用训练框架,该框架通过缩小网络的规模而不是扩大网络的规模,而提高卷积神经网络的性能。传统的知识蒸馏是一种网络之间的知识转换方法,它迫使学生神经网络接近预先训练的教师神经网络的softmax层输出,与此不同,所提出的自蒸馏框架提取网络
  • 2024-03-11【论文阅读】N-BEATS Neural basis expansion analysis for interpretable time series forecasting
    原始题目:N-BEATS:Neuralbasisexpansionanalysisforinterpretabletimeseriesforecasting中文翻译:N-BEATS:可解释时间序列预测的神经基展开分析发表时间:2020-02-20平台:arXiv文章链接:http://arxiv.org/abs/1905.10437开源代码:https://github.com/servicenow/n-beats
  • 2024-03-11蒸馏网络中的bias是指什么? —— 论文《Distilling the Knowledge in a Neural Network》—— 知识蒸馏
    论文地址:https://arxiv.org/pdf/1503.02531.pdf在蒸馏网络中会遇到手动调整bias的说法,但是这个bias在论文中又没有明细说明是怎么个bias,具体论文出处:Ifthisbiasisincreasedby3.5查询Gemini,得到回答:Assumingyou'rereferringtotheprevioussentenceaboutl
  • 2024-02-29Adaptive Universal Generalized PageRank Graph Neural Network
    目录概符号说明GPR-GNN代码ChienE.,PengJ.,LiP.andMilenkovicO.Adaptiveuniversalgeneralizedpagerankgraphneuralnetwork.ICLR,2021.概GPR-GNN自适应地学习GNNlayersweights.符号说明\(G=(V,E)\),graphs;\(\mathbf{X}\in\mathbb{R}^{n\time
  • 2024-02-23Linear-Time Graph Neural Networks for Scalable Recommendations
    目录概符号说明MotivationLTGNN代码ZhangJ.,XueR.,FanW.,XuX.,LiQ.,PeiJ.andLiuX.Linear-timegraphneuralnetworksforscalablerecommendations.WWW,2024.概在大图上的一种高效的训练方式.符号说明\(\mathcal{V}\),nodeset;\(\mathcal{E}\),edg
  • 2024-02-20LSTM 策略应用在量化交易领域的一点猜想
      LSTM(LongShortTermMemory),对于NLP(自然语言处理)和连续拍照的处理时,有额外的优势.在交易领域,最多的是应用于预判未来走势.  在自然语言处理时,将语句分为一个个单词,并预判下一个词汇.   同理:在K线图中,最简单的模式是以OHLCV,即一个Bar被当作一
  • 2024-02-09《Learning from Context or Names?An Empirical Study on Neural Relation Extraction》论文阅读笔记
    代码原文地址预备知识:1.什么是对比学习?对比学习是一种机器学习范例,将未标记的数据点相互并列,以教导模型哪些点相似,哪些点不同。也就是说,顾名思义,样本相互对比,属于同一分布的样本在嵌入空间中被推向彼此。相比之下,属于不同分布的那些则相互拉扯。摘要神经模型在关系抽取(RE