首页 > 其他分享 >Broodstock breeding behaviour recognition based on Resnet50-LSTM with CBAM attention mechanism

Broodstock breeding behaviour recognition based on Resnet50-LSTM with CBAM attention mechanism

时间:2024-01-18 10:23:31浏览次数:29  
标签:Resnet50 Mish CBAM attention 2022 pdf Du

一区top,2022年

Computers and Electronics in Agriculture

分类

题目:

“基于 CBAM 注意机制 Resnet50-LSTM 的亲鱼繁殖行为识别” (Du 等, 2022, pp. -) (pdf)

“Broodstock breeding behaviour recognition based on Resnet50-LSTM with CBAM attention mechanism” (Du 等, 2022, pp. -) (pdf)

问题:

“亲鱼具有养殖时间长 、养殖数量少 、经济价值高 的特点。” (Du 等, 2022, p. 1) (pdf)

“研究仔群的行 为(正常追逐、 产卵、聚集 、摄食、 游动)” (Du 等, 2022, p. 1) (pdf)

“由 于这些 be- 行为之间的高度相似性 ,识别这些行 为是具有挑 战性的” (Du 等, 2022, p. 1) (pdf)

“提出了一种基于 R esnet50-L S TM 的方法来识别五种标准行为” (Du 等, 2022, p. 1) (pdf)

“提出了一种基于 R esnet50-L S TM 的方法来识别五种标准行为” (Du 等, 2022, p. 1) (pdf)

数据集

“仔鱼行 为识 别视 频取 自明 博水 产养 殖公 司循 环水 养殖 系统” (Du 等, 2022, p. 2) (pdf)

“我们将视频片段划分为 10 s 的持续时间” (Du 等, 2022, p. 3) (pdf)

60%,训练集,20%,验证集,20%,测试集

模型框架

image

“在动作识别任务中,我们嵌入了 CBAM 模 块 经过每个阶段的特征提取网络 Resnet50,可以增强特征图中的空间和 通道特征” (Du 等, 2022, p. 6) (pdf)

评估指标

image

收获

  • 可以用用过CBAM模块来增强动作识别任务中,提升精度。

  • Mish激活函数,说是比relu还牛逼,可以试试。我怀疑它很有可能成为AI未来的新ReLU。
    image
    image

  • Mish

    论文:Mish: A Self Regularized Non-Monotonic Activation Function

    年份:2020

  • β-Mish激活函数

    论文:Beta and Alpha Regularizers of Mish Activation Functions for Machine Learning Applications in Deep Neural Networks

    年份:2022

标签:Resnet50,Mish,CBAM,attention,2022,pdf,Du
From: https://www.cnblogs.com/xinxuann/p/17971926

相关文章

  • AttentionFreeTransformer 核心结构图(GraphViz 重绘)
    AFTFulldigraphAFTFull{ rankdir=BTnode[ style=filled, color=Black fontcolor=White, fillcolor="#30638e", fontname="SimHei", fontsize=32, width=5,height=2, ]inp[label="输入\n[BatchSize,\nSeqLen,......
  • Attention Mechanisms in Speech Synthesis: A Revolution in Voice Technology
    1.背景介绍自从深度学习技术在语音合成领域取得了显著的进展,语音合成技术的发展得到了重大的推动。在这一过程中,注意力机制(AttentionMechanisms)发挥了关键作用,为语音合成技术提供了新的思路和方法。本文将从多个角度深入探讨注意力机制在语音合成中的应用和影响。1.1语音合成的发......
  • Self-attention小小实践
    目录公式1不带权重的自注意力机制公式2带权重的自注意力机制公式1不带权重的自注意力机制\[Attention(X)=softmax(\frac{X\cdot{X^T}}{\sqrt{dim_X}})\cdotX\]示例程序:importnumpyasnpemb_dim=3qkv_dim=4seq_len=5X=np.array([[1501,502,503],......
  • CCNet: Criss-Cross Attention for Semantic Segmentation
    CCNet:Criss-CrossAttentionforSemanticSegmentation*Authors:[[ZilongHuang]],[[XinggangWang]],[[YunchaoWei]],[[LichaoHuang]],[[HumphreyShi]],[[WenyuLiu]],[[ThomasS.Huang]]初读印象comment::(CCNet)每个像素通过一个十字注意力模块捕获十字路......
  • Is Attention Better Than Matrix Decomposition?
    IsAttentionBetterThanMatrixDecomposition?*Authors:[[ZhengyangGeng]],[[Meng-HaoGuo]],[[HongxuChen]],[[XiaLi]],[[KeWei]],[[ZhouchenLin]]Locallibrary初读印象comment::作者提出了一系列Hamburger,这些汉堡包使用MD的优化算法来分解输入表示并重......
  • SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation
    SegNeXt:RethinkingConvolutionalAttentionDesignforSemanticSegmentation*Authors:[[Meng-HaoGuo]],[[Cheng-ZeLu]],[[QibinHou]],[[ZhengningLiu]],[[Ming-MingCheng]],[[Shi-MinHu]]·······初读印象comment::发现了导致分割模型性能提高的几......
  • Dual Attention Network for Scene Segmentation:双线并行的注意力
    DualAttentionNetworkforSceneSegmentation*Authors:[[JunFu]],[[JingLiu]],[[HaijieTian]],[[YongLi]],[[YongjunBao]],[[ZhiweiFang]],[[HanqingLu]]DOI:10.1109/CVPR.2019.00326初读印象comment::(DANet)提出了一个双注意力网络(空间+通道)来自适应......
  • CBAM: Convolutional Block Attention Module
    CBAM:ConvolutionalBlockAttentionModule*Authors:[[SanghyunWoo]],[[JongchanPark]],[[Joon-YoungLee]],[[InSoKweon]]doi:https://doi.org/10.48550/arXiv.1807.06521初读印象comment::(CBAM)提出了卷积块注意力模块。沿着空间和通道推断注意力特征,然后将......
  • Attention Is All You Need
    AttentionIsAllYouNeed*Authors:[[AshishVaswani]],[[NoamShazeer]],[[NikiParmar]],[[JakobUszkoreit]],[[LlionJones]],[[AidanN.Gomez]],[[LukaszKaiser]],[[IlliaPolosukhin]]DOI:10.48550/ARXIV.1706.03762初读印象comment::仅仅利用了注意力......
  • Expectation-Maximization Attention Networks for Semantic Segmentation 使用了EM算
    Expectation-MaximizationAttentionNetworksforSemanticSegmentation*Authors:[[XiaLi]],[[ZhishengZhong]],[[JianlongWu]],[[YiboYang]],[[ZhouchenLin]],[[HongLiu]]DOI:10.1109/ICCV.2019.00926Locallibrary初读印象comment::(EMANet)用期望......