- 2024-08-25iTransformer时序模型改进——基于SENet和TCN的倒置Transformer,性能暴涨
1数据集介绍ETT(电变压器温度):由两个小时级数据集(ETTh)和两个15分钟级数据集(ETTm)组成。它们中的每一个都包含2016年7月至2018年7月的七种石油和电力变压器的负载特征。 数据集链接:https://drive.google.com/drive/folders/1ZOYpTUa82_jCcxIdTmyr0LXQfvaM9vIy
- 2024-08-03一文读懂SEnet:如何让机器学习模型学会“重点观察”
深入探讨一个在图像识别、自然语言处理等众多领域大放异彩的注意力模块——Squeeze-and-ExcitationNetworks(SEnet)。本文不仅会理论剖析SEnet的核心原理,还会手把手带你完成在TensorFlow和Pytorch这两个主流框架上的代码实现。准备好了吗?一起步入注意力机制的精妙世界。一、
- 2024-03-30【即插即用】SE通道注意力机制(附源码)
原文地址:Squeeze-and-ExcitationNetworks源码地址:GitHub-hujie-frank/SENet:Squeeze-and-ExcitationNetworks摘要简介:卷积神经网络建立在卷积操作的基础上,它通过融合局部感受野内的空间信息和通道信息来提取有用的特征。近年来,为了提高网络的表示能力,多种方法显示出
- 2023-12-18Squeeze-and-Excitation Networks:SENet,早期cv中粗糙的注意力
Squeeze-and-ExcitationNetworks*Authors:[[JieHu]],[[LiShen]],[[SamuelAlbanie]],[[GangSun]],[[EnhuaWu]]Locallibrary初读印象comment::(SENet)以前的工作都是在提高CNN的空间编码能力。这篇论文提出了“Squeeze-and-Excitation”块,研究通道之间的关系。
- 2023-12-06SENetV2: 用于通道和全局表示的聚合稠密层
SENetV2:Aggregateddenselayerforchannelwiseandglobalrepresentations 官方代码是用tf.keras实现(论文中没有标注):https://github.com/mahendran-narayanan/SENetV2-Aggregated-dense-layer-for-channelwise-and-global-representations我用torch和tf实现了一下:htt