首页 > 其他分享 >视觉顶会论文 | 基于Swin Transformer的轴承故障诊断

视觉顶会论文 | 基于Swin Transformer的轴承故障诊断

时间:2024-11-21 23:13:42浏览次数:3  
标签:轴承 Transformer Swin Python 博客 故障诊断 故障 CSDN 顶会

 往期精彩内容:

Python-凯斯西储大学(CWRU)轴承数据解读与分类处理

Pytorch-LSTM轴承故障一维信号分类(一)-CSDN博客

Pytorch-CNN轴承故障一维信号分类(二)-CSDN博客

Pytorch-Transformer轴承故障一维信号分类(三)-CSDN博客

三十多个开源数据集 | 故障诊断再也不用担心数据集了!

Python轴承故障诊断 (一)短时傅里叶变换STFT-CSDN博客

Python轴承故障诊断 (二)连续小波变换CWT-CSDN博客

Python轴承故障诊断 (三)经验模态分解EMD-CSDN博客

Python轴承故障诊断 (四)基于EMD-CNN的故障分类-CSDN博客

Python轴承故障诊断 (五)基于EMD-LSTM的故障分类-CSDN博客

Python轴承故障诊断 (六)基于EMD-Transformer的故障分类-CSDN博客

Python轴承故障诊断 (七)基于EMD-CNN-LSTM的故障分类-CSDN博客

Python轴承故障诊断 (八)基于EMD-CNN-GRU并行模型的故障分类-CSDN博客

Python轴承故障诊断 (九)基于VMD+CNN-BiLSTM的故障分类-CSDN博客

Python轴承故障诊断 (十)基于VMD+CNN-Transfromer的故障分类-CSDN博客

基于FFT + CNN - BiGRU-Attention 时域、频域特征注意力融合的轴承故障识别模型-CSDN博客

基于FFT + CNN - Transformer 时域、频域特征融合的轴承故障识别模型-CSDN博客

Python轴承故障诊断 (11)基于VMD+CNN-BiGRU-Attenion的故障分类-CSDN博客

交叉注意力融合时域、频域特征的FFT + CNN -BiLSTM-CrossAttention轴承故障识别模型-CSDN博客

交叉注意力融合时域、频域特征的FFT + CNN-Transformer-CrossAttention轴承故障识别模型-CSDN博客

轴承故障诊断 (12)基于交叉注意力特征融合的VMD+CNN-BiLSTM-CrossAttention故障识别模型_基于残差混合域注意力cnn的轴承故障诊断及其时频域可解释性-CSDN博客

Python轴承故障诊断 (13)基于故障信号特征提取的超强机器学习识别模型-CSDN博客

Python轴承故障诊断 (14)高创新故障识别模型-CSDN博客

Python轴承故障诊断 (15)基于CNN-Transformer的一维故障信号识别模型-CSDN博客

Python轴承故障诊断 (16)高创新故障识别模型(二)-CSDN博客

轴承故障全家桶更新 | 基于时频图像的分类算法-CSDN博客

Python轴承故障诊断 (17)基于TCN-CNN并行的一维故障信号识别模型-CSDN博客

独家原创 | SCI 1区 高创新轴承故障诊断模型!-CSDN博客

基于 GADF+Swin-CNN-GAM 的高创新轴承故障诊断模型-CSDN博客

Python轴承故障诊断 (18)基于CNN-TCN-Attention的创新诊断模型-CSDN博客

注意力魔改 | 超强轴承故障诊断模型!-CSDN博客

轴承故障全家桶更新 | 基于VGG16的时频图像分类算法-CSDN博客

轴承故障全家桶更新 | CNN、LSTM、Transformer、TCN、串行、并行模型、时频图像、EMD分解等集合​都在这里-CSDN博客

Python轴承故障诊断 (19)基于Transformer-BiLSTM的创新诊断模型-CSDN博客

Python轴承故障诊断 (20)高创新故障识别模型(三)-CSDN博客

基于格拉姆矩阵GADF+Swin Transformer窗口注意力和CNN-GAM全局注意力的轴承故障诊断模型!

● 数据集:经测试,模型在CWRU西储大学轴承数据集 和 哈工大航天发动机轴承数据集上表现分类准确率 均为100%!

● 环境框架:python 3.9  pytorch 1.8 及其以上版本均可运行

● 准确率:测试集100%

● 使用对象:论文需求、毕业设计需求者

● 代码保证:代码注释详细、即拿即可跑通。

模型简介

模型创新点还未发表,有毕业设计或者发小论文需求的同学必看,模块丰富,创新度高,性能优越!

代码配有

(1)训练可视化:

(2)原始数据 t-SNE特征可视化:

(3)模型训练后的 t-SNE特征可视化:

(4)混淆矩阵:

(5)分类标签可视化

创新点:

(1)通过格拉姆矩阵GADF把一维时序故障信号转化为二维图像;

(2)分支一:图像数据通过顶会模型 Swin Transformer 的窗口注意力机制提取故障图像局部特征;

(3)分支二:同时故障图数据像通过基于全局注意力机制 GAM-Attention 的 CNN2d 卷积池化网络;

(4)然后两个分支提取的全局空间特征和局部特征通过融合后进行自适应平均池化,使模型能够更好地融合不同层次的特征表示,提高模型性能和泛化能力。

(独家原创)

注意:此次产品,我们还有配套的模型讲解(方便学习网络结构)和参数调节讲解,进行详细的解释!

我们还提供关于一维时序信号的 格拉姆矩阵GAF、连续小波变换CWT、短时傅里叶变换STFT等相关时频图像的分类处理方法,提供更改数据集接口,可一键替换信号数据和不同图像的变换处理,来进行此创新模型的实验验证!

一维故障信号数据

2.1 导入数据

格拉姆矩阵GAF变换二维图像数据

电能质量扰动信号GAF变换二维图像数据

连续小波变换CWT时频图数据

短时傅里叶变换STFT时频图数据

 基于GADF+Swin-CNN-GAM分类网络模型

设置参数,训练模型

50个epoch,准确率近100%,用GADF+Swin-CNN-GAM网络分类效果显著,创新模型能够充分提取轴承故障信号的全局空间和局部特征,收敛速度快,性能优越,精度高,效果明显!

模型评估

准确率、精确率、召回率、F1 Score

故障十分类混淆矩阵:

3 代码、数据整理如下:

附加提供不同小波基函数 、不同中心频率、不同带宽时频图对比

标签:轴承,Transformer,Swin,Python,博客,故障诊断,故障,CSDN,顶会
From: https://blog.csdn.net/2402_85668383/article/details/143957346

相关文章

  • 计算机视觉 | 注意力机制】12种即插即用涨点模块分享!含注意力机制、卷积变体、Transfo
    即插即用模块1.**GAM-全局注意力机制**2.**STN-空间变换网络**3.**SENet-挤压和激励网络**4.**DConv-动态卷积**5.**FAN-完全注意力网络**6.**CA-协调注意力**7.**ASFF-自适应空间特征融合**8.**CFNet-全新多尺度融合**9.**simAM-简单无参数......
  • Transformer 模型全方位解析
    Transformer模型全方位解析引言Transformer模型自从在2017年被提出以来,已经成为了自然语言处理(NLP)领域的主流模型之一。它不仅在机器翻译、文本生成等任务中表现出色,还成为了许多先进模型(如BERT和GPT)的基础。本文将全面解析Transformer模型的概念、工作原理、优势、应用......
  • Transformer
    Transformer一、摘要主要的序列转导模型是基于复杂的循环或卷积神经网络,包括一个编码器和一个解码器。表现最好的模型还通过注意机制连接编码器和解码器。我们提出了一个新的简单的网络架构,变压器,完全基于注意力机制,完全摒弃递归和卷积。在两个机器翻译任务上的实验表明......
  • 基于MindSpore实现Transformer的文本机器翻译
    一、前言相同的一句话,不同的人听的时候侧重点也可能不同。在自然语言处理中,根据任务内容的不同,句子中需要重点关注的部分也会不同,因而引入了注意力机制。注意力机制:判断在执行某个任务时,词在句子中的重要性,并通过注意力分数来表示词的重要程度。分数越高,说明该词对完成该任务......
  • AI大模型探索之路-训练篇13:大语言模型Transformer库-Evaluate组件实践_transformer库
    目录系列篇章......
  • Transformer Concept Exploration and Practice in Pytorch
    IntroductionTransformer是一种广泛应用与自然语言处理的神经网络架构,它基于自注意力机制,允许模型在做出预测时为句子中的不同单词赋予不同的重要性。它非常擅长处理序列任务,并且具有并行计算的优势,因此在大规模数据集上训练时非常高效。序列任务是任何将输入序列进行变换得到输......
  • transformer模型学习路线
    Transformer学习路线前排提示,文末有大模型AGI-CSDN独家资料包哦!完全不懂transformer,最近小白来入门一下,下面就是本菜鸟学习路线。Transformer和CNN是两个分支!!因此要分开学习Transformer是一个Seq2seq模型,而Seq2seq模型用到了self-attention机制,而self-attention机制又在E......
  • 基于JavaSwing开发问卷调查系统源码(SQLServer数据库) 课程设计 大作业
    ......
  • 小波变换+Transformer:融合创新驱动多领域进步
    2024发论文&模型涨点之——小波变换+Transformer小波变换(WaveletTransform,WT)和Transformer是两种强大的工具,它们在各自的领域内有着广泛的应用。小波变换是一种数学方法,用于分析信号的时间-频率特性,而Transformer则是一种深度学习模型,主要用于处理序列数据,特别是在自然语言......
  • 浅学AI笔记03:一个Transformer自注意力机制的故事
    ChatGPT、百度文心一言等同类的大模型,都使用了Transformer架构,Transformer最大的特点是其有一个“自注意力机制”,搬个定义说的是:允许模型在处理每个输入元素时,能够考虑其与序列中所有其他元素之间的相关性,从而动态调整其权重。白话来说,就是模型要先理解输入句子的含义,才能......