首页 > 其他分享 >基于通道注意力和时间注意力的时间卷积网络:用于航空发动机剩余使用寿命预测的双重注意力架构

基于通道注意力和时间注意力的时间卷积网络:用于航空发动机剩余使用寿命预测的双重注意力架构

时间:2024-03-11 23:01:26浏览次数:27  
标签:RUL 卷积 TCN 信号 使用寿命 注意力 通道

基于通道注意力和时间注意力的时间卷积网络:用于航空发动机剩余使用寿命预测的双重注意力架构

标题: Channel attention & temporal attention based temporal convolutional network: A dual attention framework for remaining useful life prediction of the aircraft engines

作者: Lin Lin, Jinlei Wu*, Song Fu*, Sihao Zhang, Changsheng Tong, Lizheng Zu

作者单位: School of Mechatronics Engineering, Harbin Institute of Technology, Harbin, China

原文链接: https://doi.org/10.1016/j.aei.2024.102372

原文引用格式: Lin Lin, Jinlei Wu, Song Fu, Sihao Zhang, Changsheng Tong, Lizheng Zu, Channel attention & temporal attention based temporal convolutional network: A dual attention framework for remaining useful life prediction of the aircraft engines, Advanced Engineering Informatics, Volume 60, 2024, 102372, ISSN 1474-0346, https://doi.org/10.1016/j.aei.2024.102372.

引言

本文介绍了一种用于航空发动机剩余使用寿命 (RUL) 预测的新框架,它以时间卷积网络 (TCN) 为主干网络,融入了通道注意力、时间注意力 (改良的Transformer)。其中TCN用来获取更高维的信号数据,并减少短期噪声对预测的影响;通道注意力用来获取不同维度信号 (经过TCN升维后的数据) 对RUL预测的重要性;时间注意力可以加强对具有显着退化信息的关键时间点的关注,从而更准确地进行航空发动机RUL预测。

1. 论文解决的问题

  • 由于制造、装配等的限制,物理传感器安装位置有限,采集的数据并非是全面可表征航空发动机状态的数据。
  • 受到外部环境和人为操作的影响,发动机的状态不断变化。如果只关注短期的性能退化趋势,那么短期噪声会被放大,影响寿命预测。
  • 众多传感器可以采集多维的信号,但是往往只有部分信号对RUL具有重要意义冗余数据会导致预测误差和时间消耗增加。
  • 航空发动机的性能退化在不同的时间点中具有一定的累积作用,这种累积作用体现在具有相似特征的时间点数据上,而这些关键时间点对RUL的影响往往被忽视。

2. 论文贡献

  • 采用时间卷积网络 (TCN),将传感器信号从物理空间 (对应原始传感器信号) 扩展到高维虚拟空间 (对应虚拟信号)。经过学习后的高维虚拟信号是对原始信号的有效扩展,从而提供更全面的信号用来表征航空发动机性能退化。此外,TCN专注于获取长期范围内的退化信息。传感器信号获取不完整短期噪声危害的问题得到解决。
  • 通道注意力机制被引入TCN中,用于计算不同维度虚拟信号在RUL上的权重,从而获得对发动机RUL具有显著影响的关键虚拟信号。过分关注不相关信号的问题得到有效解决。
  • 采用改进的时间注意力机制,获取不同时间点数据中存在的交互作用,进而在整个运行时期内增加对具有显着退化信息的关键时间点的关注。关键时间点被忽视的问题得到解决。

3. 方法框架

架构

架构可分为三部分:数据预处理、嵌入通道注意力的TCN网络、改进后的Transformer网络。数据预处理主要包含数据的数据标准化、传感器筛选、样本构造等,下面对所提架构以及基础模型进行介绍。

3.1 所提方法架构

本研究中对基础模型进行嵌入和组合,形成两个相连接的架构:

(1) SE-TCN: 用于获取长时间范围内的关键虚拟信号

SE-TCN

(2) SM-Transformer: 用于获取包含显著退化信息的关键时间点

ta

具体的实现步骤如下所示:

① 信号升维:真实信号经过SE-TCN的隐藏层处理,将其从低维度升至更高维度,得到高维虚拟信号;

② 重要性排序:借助SE-Layer,获取高维虚拟信号不同维度对RUL的重要性权重并加权到高维虚拟信号中;

③ 循环过程①和过程②多次,其输出称为关键虚拟信号;

④ 位置编码:对关键虚拟信号进行位置编码,获得其内部的位置相关性;

⑤ 多层次特征挖掘:多头注意力机制获取位置编码后信号的丰富特征信息,并进行退化信息累积;

⑥ 损失计算及反向传播

3.2 基础模型介绍

3.2.1 时间卷积网络 (TCN)

TCN以CNN为基础,并对CNN进行了改进,是因果卷积、空洞卷积、残差网络的结合体。很显然,因果卷积不考虑未来的信息,使用多层CNN逐渐积累之前的序列信息,如下图a所示;而空洞卷积则是进行了跨越式卷积,即每个卷积核在进行卷积时,所卷积的数据是跳跃选择的,而不是相邻的数据,如下图b所示。

因果卷积和空洞卷积的结合使得TCN具有更大的感受野,为了防止梯度消失和梯度爆炸,TCN加入了残差连接,在每个隐藏层中进行跳跃连接。TCN的结构如下图所示。

TCN

3.2.2 通道注意力机制 (SENet)

ca

文中的通道注意力机制采用的是Hu和他的团队提出的Squeeze-and-Excitation block (文中称为SE-Layer),通道注意力机制的实施过程分为两步:

压缩:对每个通道进行自适应全局平均池化处理,将每个通道的全局空间信息压缩到通道描述符中。

激励:使用两个线性层捕获通道间的依赖关系,最终获得各个通道的权重。

3.2.3 时间注意力机制 (Transformer)

transformer

文中使用的时间注意力对Transformer进行了修改,因此了解Transformer的架构便可以快速掌握文中的时间注意力构造方式。Transformer内部需要进行输入向量位置编码、编码层处理、解码层处理,其中编码层和解码层的核心是多头注意力机制。多头注意力机制的组成单元(自注意力机制)和其本身的架构如上图所示。多头注意力机制将数据映射到不同的子空间中,从不同的层面进行特征提取,并将所提取的不同层面的特征进行融合,使其信息更丰富。

文中提到,首先,由于研究的目标是预测航空发动机的RUL,它具有确定的长度,因此没有必要使用解码器来获得可变长度的输出;其次,输入数据(经过处理的信号)和输出数据 (RUL) 具有一一对应关系,编码器足以从样本中学习到航空发动机的性能下降信息,无需加入解码层让网络变得复杂。基于这两点,文中对Transformer进行了改进,舍弃掉了解码层,让编码层与全连接层直接相连。

4. 实验及结论

选取NASA发布的CMAPSS数据集以及真实的航空发动机飞行数据验证所提方法的有效性,消融实验对比实验结果表明所提基于双重注意力的TCN在进行航空发动机RUL预测方面非常具有潜力,并且拥有双重注意力机制的架构能够更好地适应复杂工况的数据。

5. 数据集

CMAPSS数据集下载地址:https://github.com/huster123/c-mapss-full-dataset-/tree/master/Data

标签:RUL,卷积,TCN,信号,使用寿命,注意力,通道
From: https://www.cnblogs.com/WuJinlei/p/18067197

相关文章

  • 深度学习-卷积神经网络-目标检测YOLO-v1详解-54
    目录1.结构3.总结3.训练样本的构造4.损失函数5.训练6.推理6.小结参考:https://www.zhihu.com/tardis/zm/art/46691043?source_id=1005输入一张图片,要求输出其中所包含的对象,以及每个对象的位置(包含该对象的矩形框)RCNN开创性的提出了候选区(RegionProposals)的方法,先从......
  • m基于FPGA的RS+卷积级联编译码实现,RS用IP核实现,卷积用verilog实现,包含testbench测
    1.算法仿真效果Vivado2019.2仿真结果如下:  2.算法涉及理论知识概要        级联码是一种通过将两种或多种纠错码结合使用来提高纠错能力的编码方案。在RS+卷积级联编码中,通常首先使用卷积码对原始数据进行编码,以增加冗余并提供一定的纠错能力。然后,将卷积码的输......
  • 深度学习-卷积神经网络-Faster RCNN anchor详解-53
    目录1.Anchor参考:https://zhuanlan.zhihu.com/p/86403390?utm_id=01.Anchor我第一次接触Anchor(中文叫做锚)的时候,比较懵逼的,什么是锚这个问题让思考了好久,这也是阻碍大家学习FasterRCNN最大的绊脚石索性我们就先把anchor理解为一个个按照固定比例(长宽、大小)预定义的框lib/ne......
  • Vision Transformers的注意力层概念解释和代码实现
    2017年推出《AttentionisAllYouNeed》以来,transformers已经成为自然语言处理(NLP)的最新技术。2021年,《AnImageisWorth16x16Words》,成功地将transformers用于计算机视觉任务。从那时起,许多基于transformers的计算机视觉体系结构被提出。本文将深入探讨注意力层在计算......
  • 什么是自注意力机制?
    自注意力机制(Self-AttentionMechanism)是一种在自然语言处理和计算机视觉等领域中广泛使用的技术,它可以帮助模型在处理序列数据时更好地理解上下文信息。在自注意力机制中,输入序列被表示为一组向量(比如说在自然语言处理中,可以将一句话中的每个单词表示为一个向量),每个向量都被称为......
  • 基于CNN卷积网络的MNIST手写数字识别matlab仿真,CNN编程实现不使用matlab工具箱
    1.算法运行效果图预览    2.算法运行软件版本matlab2022a  3.算法理论概述       MNIST是一个手写数字的大型数据库,包含60,000个训练样本和10,000个测试样本。每个样本都是28x28像素的灰度图像,代表0到9之间的一个数字。 3.1卷积神经网络(CNN)   ......
  • 自注意力和混合特征名词解释
    引言子带变换特征将原始信号分解成不同频带的子信号基本原理是利用一组带通滤波器将信号分割成若干个子频带也可采用离散小波变换,利用小波基函数将信号分解成不同尺度的子信号以便在不同的尺度上分析信号或图像的特性和池化(pooling)同对信号进行降采样可......
  • 深度学习-卷积神经网络-keras生成器训练模型-51
    目录1.模型的定义2.图片batchgenerator3.模型训练1.模型的定义fromkeras.applications.inception_v3importInceptionV3fromkeras.modelsimportModelfromkeras.layersimportDense,GlobalAvgPool2Dfromkeras.optimizersimportRMSprop"""在AlexNet及其之前......
  • 深度学习-卷积神经网络-tensorflow的用法-49
    目录1.01_first_graph2.sessionrun3.global_variables_initializer4.InteractiveSession5.get_default_graph6.life_cicycle07linear_regression8.manual_gradient9.auto_diff12.softmax_regression13.convolution14.pooling1.01_first_graphimporttensorflowa......
  • 基于MATLAB深度学习工具箱的CNN卷积神经网络训练和测试
    一、理论基础    为了尽可能详细地介绍基于MATLAB深度学习工具箱的CNN卷积神经网络训练和测试,本文将按照以下内容进行说明:CNN卷积神经网络的基本原理深度学习工具箱的基本介绍CNN卷积神经网络训练的步骤和方法CNN卷积神经网络的优缺点1.CNN卷积神经网络的基本原理 ......