Loading [MathJax]/extensions/TeX/boldsymbol.js

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于自适应频谱损失生成对抗网络的滚动轴承故障诊断方法

何佳兴 陈兴杰 吕照民

何佳兴, 陈兴杰, 吕照民. 基于自适应频谱损失生成对抗网络的滚动轴承故障诊断方法[J]. 上海工程技术大学学报, 2024, 38(4): 406-413. doi: 10.12299/jsues.23-0254
引用本文: 何佳兴, 陈兴杰, 吕照民. 基于自适应频谱损失生成对抗网络的滚动轴承故障诊断方法[J]. 上海工程技术大学学报, 2024, 38(4): 406-413. doi: 10.12299/jsues.23-0254
HE Jiaxing, CHEN Xingjie, LYU Zhaomin. Rolling bearing fault diagnosis method based on adaptive spectral loss generative adversarial networks[J]. Journal of Shanghai University of Engineering Science, 2024, 38(4): 406-413. doi: 10.12299/jsues.23-0254
Citation: HE Jiaxing, CHEN Xingjie, LYU Zhaomin. Rolling bearing fault diagnosis method based on adaptive spectral loss generative adversarial networks[J]. Journal of Shanghai University of Engineering Science, 2024, 38(4): 406-413. doi: 10.12299/jsues.23-0254

基于自适应频谱损失生成对抗网络的滚动轴承故障诊断方法

doi: 10.12299/jsues.23-0254
基金项目: 国家自然科学基金面上项目资助(51975347)
详细信息
    作者简介:

    何佳兴(1998 − ),男,硕士生,研究方向为轴承故障诊断。E-mail:jia_he1998@163.com

    通讯作者:

    陈兴杰(1975 − ),男,副教授,研究方向为轨道及车辆检测方面的信号检测和图像处理。E-mail:chenxingjie@sues.edu.cn

  • 中图分类号: TP306+.3;TH133.33

Rolling bearing fault diagnosis method based on adaptive spectral loss generative adversarial networks

  • 摘要: 提出一种基于自适应频谱损失生成对抗网络的轴承故障诊断方法。首先,引入谱距离度量生成数据与真实数据间的频域差距。其次,在生成器损失中加入自适应频谱损失降低简单频率分量的权重,从而自适应地关注难以合成的频率分量,以更好地指导生成对抗网络,生成与真实数据更相似的假样本。利用凯斯西储大学轴承数据集进行验证,并与其他方法相比。结果表明,自适应频谱损失生成对抗网络能生成质量更高的样本,并显著提高样本不平衡条件下的故障识别率。
  • 随着现代工业的发展,旋转机械在实际工程中得到广泛应用。轴承作为旋转机械的关键传动部件,长期在高速运转、过载等恶劣条件下运行,不可避免会发生故障,最终导致机械不能正常运转,并带来重大经济损失[1]。因此,对滚动轴承进行准确且高效的故障诊断至关重要[26]。然而,在实际生产中,工业机械设备很少在故障状态下运行,导致故障信息样本非常有限。因此,如何利用有限的故障样本训练出准确可靠的滚动轴承故障诊断模型是值得关注的问题[7]

    基于深度学习的数据扩充法能够满足高质量均衡训练集的要求,是一种很有前途的解决方案。Goodfellow等[8]提出生成对抗网络(generative adversarial networks, GAN),利用随机噪声生成与原始数据分布相似的数据。针对样本不平衡问题,根据生成数据的维度划分为一维数据生成和二维数据生成。一维数据的生成又分为3种类型:第一种是直接生成原始信号;第二种是生成原始信号的频谱,与原始信号相比,频谱中包含更加丰富的故障信息;第三种是生成提取的数据特征。Zhang等[9]最早使用GAN进行原始信号增强,使用具有梯度惩罚的GAN来生成轴承振动信号,有效扩展了训练数据集。Wang等[10]采用GAN生成齿轮箱振动信号的频谱,将生成的频谱与真实的频谱训练堆叠自编码器,得到较高的诊断精度和良好的抗噪能力。Zhou等[11]使用自编码器提取原始信号的故障特征,利用GAN生成故障特征后,与真实的故障特征通过深度神经网络进行故障识别,提取的特征进行生成比原始信号更容易、更迅速,然而,生成的特征包含的故障信息可能不如原始数据中的故障信息丰富。二维数据的生成分为生成灰度图像和生成时频图像。肖雄等[12]提出一种基于二维灰度图及辅助分类生成对抗网络,有效提高故障识别准确率及网络训练速度。Zhang等[13]将一维振动信号转换为时频图后,通过条件变分自编码生成对抗网络生成故障样本,解决了样本不平衡问题。Liang等[14]使用连续小波变换提取齿轮箱振动数据的时频特征,采用GAN扩展二维时频特征的数量训练诊断模型,提高了故障诊断的准确率。Tao等[15]采用短时傅里叶变换将原始的一维振动信号转换为二维时频图后,利用CatGAN生成时频图,扩充了训练集,提高了故障诊断的准确率。

    上述研究利用GAN生成的样本扩展训练数据集能够提高诊断模型的故障识别率,但仍存在以下问题:GAN在生成样本的任务中,对不同频率分量的拟合能力不同,通常由低到高;滚动轴承振动信号是一种非平稳、高频的、频率分量复杂的信号,在生成样本时会忽略难以合成的频率分量,导致生成的样本质量差。为解决上述问题,本研究提出一种基于自适应频谱损失生成对抗网络(adaptive spectrum loss generative adversarial network, ASLGAN)的轴承故障诊断方法,利用短时傅里叶变换将振动信号转换为时频图像,使用ASLGAN生成与真实时频图像相似的图像扩充故障样本,并将生成样本和原样本一起训练故障分类模型。

    生成对抗网络由生成器(G)、判别器(D)组成,结构如图1所示。随机向量z用作生成器G的输入,以生成与真实样本X分布尽可能一致的样本G(z),判别器D的输入是原始样本X和生成样本G(z),判别器的目标是区分样本的真伪。

    图  1  生成对抗网络结构图
    Figure  1.  Structure diagram of GAN

    在模型优化过程中,判别器和生成器两者交替训练,相互对抗,最终目标使判别器无法区分生成样本和真实样本。GAN的目标函数为

    minGmaxD{L(G,D)=Ex  Pdata(x)[log(D(x))]+Ez  Pz(z)[log(1D(G(z)))]} (1)

    式中:Pdata为真实数据分布;Pz为随机变量z分布;G(z)由生成器生成的数据;D(x)为真实样本;x为真实样本的概率;D(G(z))为生成的样本被判别器鉴别为真实样本的概率。网络训练目标为最小化生成器损失和最大化判别器损失。

    短时傅里叶变换(short-time Fourier transform, STFT)是一种针对时变、非平稳信号的时频联合分析法,能够将一维故障轴承振动信号变换为适合卷积神经网络处理的,包含时域和频域信息的时频图。其基本思想是利用固定长度的窗口截取时域信号,进行傅里叶变换得到某一小段时间内的局部频谱,随着该窗口在整个时间范围内平移,获得每个时段内的局部频谱。因此,STFT是关于时间和频率的二维函数,表达式为

    STFT{x(t)}(t,w)=+x(s)g(st)ejwtds (2)

    式中:x(t)为时域信号;ts为时间;w为频率;g(s-t)为以时间t为中心的窗函数。

    为设计频谱损失函数,需要距离度量真实图像和生成图像间的频域差异。时频图像被视为仅具有实数的二维离散有限信号。使用二维离散傅里叶变换(2D discrete Fourier transform, 2D DFT)将图像转换为其频率表示,表达式为

    F(μ,ν)=M1x=0N1y=0f(x,y)ei2π (μxM+νyN) (3)

    式中:MN为图像的长、宽;(x, y)为图像像素在空间域中的坐标;f(x, y)为像素值;(μ, ν)为频谱上空间频率的坐标;F(μ, ν)为复数频率值;e、i分别为欧拉常数和虚数单位,遵循欧拉公式eiθ=cosθ+isinθ,则式(3)可改写为

    F(μ,ν)=M1x=0N1y=0f(x,y)[cos2π (μxM+νyN)isin2π (μxM+νyN)] (4)

    图像经2D DFT后被分解为正交的正弦和余弦函数,分别构成频率值的虚部和实部。每个正弦或余弦函数可看作关于xy的二元函数。将F(μ, ν)的实部R(μ, ν)和虚部I(μ, ν)分别由ab表示,式(4)可表示为

    F(μ,ν)=R(μ,ν)+I(μ,ν)i=a+bi (5)

    得到F(μ, ν)的幅值和相角,表达式分别为

    |F(μ,ν)|=R(μ,ν)2+I(μ,ν)2=a2+b2 (6)
    F(μ,ν)=arctan(I(μ,ν)R(μ,ν))=arctanba (7)

    谱距离同时考虑幅值和相位的信息,将每个频率值映射到二维空间中的欧几里德向量。根据复数标准定义,实部和虚部分别对应x轴和y轴。令Fr(μ,ν)=ar+briFg(μ,ν)=ag+bgi 分别为真实图像和生成图像在频谱(μ, ν)坐标处的频率值,在平面直角坐标系中画出其对应向量 {{\boldsymbol{r}}}_{r} {{\boldsymbol{r}}}_{g} ,如图2所示。

    图  2  两向量间的谱距离
    Figure  2.  Spectral distance between two vectors

    图中, \left|{{\boldsymbol{r}}}_{r}\right| \left|{{\boldsymbol{r}}}_{g}\right| 为幅值, {\theta }_{r} {\theta }_{g} 为相位。谱距离同时考虑矢量的幅值和相位,等于两个向量间的欧几里德距离,表达式为

    {\text{d}}({ {\boldsymbol{r}}_{r}},{ {\boldsymbol{r}}_g}) = \left\| {{{\boldsymbol{r}}}_{r}}{ - }{{{ {\boldsymbol{r}}}_{g}}} \right\|_2^2 = {\left| {{{F}_{r}}{\text{(}}{\mu ,\nu }{\text{)}}{ - }{{F}_{g}}{\text{(}}{\mu ,\nu }{\text{)}}} \right|^2} (8)

    生成图像与真实图像间的谱距离可表示为所有频率分量的平均值,表达式为

    {\text{d}}({{F}_{r}},{{F}_{g}}) = \frac{1}{{{MN}}}{\sum\limits_{\mu = 0}^{{M} - 1} {\sum\limits_{\nu = 0}^{{N} - 1} {\left| {{{F}_{r}}{\text{(}}{\mu ,\nu }{\text{)}}{ - }{{F}_{g}}{\text{(}}{\mu ,\nu }{\text{)}}} \right|} } ^2} (9)

    虽然式(9)能定量比较生成图像与真实图像间的差距,但作为损失函数并不能达到很好的生成效果。而直接使用谱距离作为损失函数,每个频率分量的权重都相同,在生成图像过程中也不会关注难以合成的频率分量。因此,本研究提出自适应频谱损失函数,引入频谱权重矩阵自适应降低简单频率分量的权重,增加复杂分量的权重。权重矩阵与图像大小一致,表达式为

    {w}{\text{(}}{\mu ,\nu }{\text{)}} = {\left| {{{F}_{r}}{\text{(}}{\mu ,\nu }{\text{)}}{ - }{{F}_{g}}{\text{(}}{\mu ,\nu }{\text{)}}} \right|^{\alpha }} (10)

    式中:α为灵活性的比例因子,本试验中α=1,将矩阵值归一到0~1的范围。权重为1对应当前丢失最多的频率,即难以合成的频率分量,而容易合成的频率则权重低。频谱权重矩阵与谱距离矩阵进行Hadamard乘积,得到自适应频谱损失函数(adaptive spectrum loss, ASL)为

    {{\mathrm{ASL}}} = \frac{1}{{{MN}}}{\sum\limits_{\mu = 0}^{{M} - 1} {\sum\limits_{\nu = 0}^{{N} - 1} {{w}{\text{(}}{\mu ,\nu }{\text{)}}\left| {{{F}_{r}}{\text{(}}{\mu ,\nu }{\text{)}}{ - }{{F}_{g}}{\text{(}}{\mu ,\nu }{\text{)}}} \right|} }^2} (11)

    本研究提出的自适应频谱损失函数作为原始生成器损失函数的补充,ASLGAN的生成器的损失函数为

    {L_{\mathrm{G}}} = {E_{z\sim {P_z}(z)}}[\log (1 - D(G(z)))] + {{\mathrm{ASL}}} (12)

    加入自适应频谱损失后,模型在生成样本时不仅能关注生成图像与真实图像间概率分布的差异,还关注频域差异,从而生成更高质量的样本。

    图3为基于ASLGAN的轴承故障诊断方法流程。主要分为5个步骤:

    图  3  所提方法流程图
    Figure  3.  Flowchart of proposed method

    第1步采用滚动窗采集法对轴承振动信号进行分割,利用STFT将振动信号转换为时频图像,并将时频图像划分为训练集和测试集;

    第2步将训练集中的故障样本输入ASLGAN模型进行训练,训练完成后保存模型参数;

    第3步利用ASLGAN模型对训练集的故障样本进行扩充,使训练集中各类故障样本数量与正常样本相同;

    第4步搭建卷积神经网络(convolution neural network, CNN)故障分类模型,扩充后训练集输入CNN分类模型训练,训练完成后保存模型参数;

    第5步将测试集数据输入到CNN故障分类模型中测试,得到故障诊断结果。

    使用Python 3.8作为编程语言,Pytorch 2.0作为深度学习框架。计算机硬件参数如下:CPU为内存16 GB的Core i7 10700 CPU @ 2.90 GHz,GPU为内存5 GB的NVIDIA Quadro P2200。

    使用凯斯西储大学(case western reserve university, CWRU)提供的滚动轴承数据集作为试验数据,数据集划分见表1。轴承故障位置有滚动体、内圈和外圈3处,每处位置均有0.178、0.356和0.534 mm等3种故障深度。训练集是一个不平衡数据集,正常样本(100个)与故障样本(20个)的比例为5:1,在测试集中每个类别均有100个样本。

    表  1  轴承数据集详细信息
    Table  1.  Bearing dataset details
    故障位置 故障深度/mm 样本数(训练集/测试集) 类别名称 标签
    100/100 正常 0
    滚动体 0.178 20/100 滚动体故障1 1
    0.356 20/100 滚动体故障2 2
    0.534 20/100 滚动体故障3 3
    内圈 0.178 20/100 内圈故障1 4
    0.356 20/100 内圈故障2 5
    0.534 20/100 内圈故障3 6
    外圈 0.178 20/100 外圈故障1 7
    0.356 20/100 外圈故障2 8
    0.534 20/100 外圈故障3 9
    下载: 导出CSV 
    | 显示表格

    本研究模型由ASLGAN生成模型和CNN故障分类模型组成,模型架构见表2。生成器由5个反卷积层和4个批标准化层(batch normalization, BN)组成,判别器由5个卷积层和3个批标准化层组成。分类模型由3个卷积层、3个最大池化层和2个全连接层组成。卷积层和反卷积层主要由5个参数组成:输入通道数、输出通道数、卷积核大小、步长和填充数。在ASLGAN生成模型训练过程中,使用优化器Adam,设置批次20,学习率0.001,经过10000次训练后,ASLGAN中的生成器被用来生成故障样本。在CNN故障分类模型训练过程中,使用优化器Adam,设置批次64,学习率0.0005,经过100次训练后,将测试集输入到训练好的模型中得到故障诊断结果。

    表  2  ASLGAN生成模型与CNN故障分类模型架构
    Table  2.  Architectures of ASLGAN generative model and CNN fault classification model
    模型名称 模型结构组成 主要参数 输出尺寸
    生成器 Input 100 × 1 × 1
    ConvTranspose_2D + BN + ReLu 100,512,4,1,0 512 × 4 × 4
    ConvTranspose_2D + BN + ReLu 512,256,4,2,1 256 × 8 × 8
    ConvTranspose_2D + BN + ReLu 256,128,4,2,1 128 × 16 × 16
    ConvTranspose_2D + BN + ReLu 128,64,4,2,1 64 × 32 × 32
    ConvTranspose_2D + Tanh 64,3,4,2,1 3 × 64 × 64
    判别器 Input 3 × 64 × 64
    Conv_2D + LeakReLu 3,64,4,2,1 64 × 32 × 32
    Conv_2D + BN + LeakReLu 64,128,4,2,1 128 × 16 × 16
    Conv_2D + BN + LeakReLu 128,256,4,2,1 256 × 8 × 8
    Conv_2D + BN + LeakReLu 256,512,4,2,1 512 × 4 × 4
    Conv_2D 512,1,4,1,0 1 × 1 × 1
    CNN分类器 Input 3 × 64 × 64
    Conv_2D + ReLu + MaxPool 3,16,5,1,0 16 × 60 × 60
    Conv_2D + ReLu + MaxPool 16,32,5,1,0 32 × 26 × 26
    Conv_2D + ReLu + MaxPool 32,64,5,1,0 64 × 9 × 9
    Flatten 1024
    Linear + ReLu 1024,120 120
    Linear + ReLu 120,10 10
    下载: 导出CSV 
    | 显示表格

    使用ASLGAN生成的图像与真实图像的对比图,如图4所示,图中第一行为9种不同故障情况下的真实图像,第二行由ASLGAN生成的与第一行相对应的图像。

    图  4  生成图像与真实图像的对比图
    Figure  4.  Comparison between generated image and real image

    图4可知,生成的图像与真实图像存在高度相似性。本试验使用峰值信噪比(peak signal to noise ratio, PSNR)[16]、结构相似性指数(structural similarity index, SSIM)[17]和感知相似性(learned perceptual image patch similarity, LPIPS)[18]指标比较生成图像与真实图像的相似性。此外,进行了GAN[19]、DCGAN[20]、WGAN[21]三种经典生成模型的对比试验,对比结果见表35。GAN是最基本的生成对抗网络模型。相较GAN、DCGAN引入卷积神经网络作为生成器和判别器的架构,以有效地处理图像数据。WGAN在DCGAN的基础上,使用Wasserstein距离度量生成数据和真实数据的差异,并限制判别器满足Lipschitz连续性条件,从而提高训练的稳定性,有助于生成更高质量的图像。为确保公平性,DCGAN与WGAN的模型结构与ASLGAN保持一致,同时所有模型的超参数也相同,包括学习率、批量大小和训练周期等。

    表  3  生成图像与真实图像的PSNR值对比结果
    Table  3.  Comparison results of PSNR values of generated image and real image
    方法滚动体故障内圈故障外圈故障平均值
    123123123
    GAN27.99227.97127.98027.90527.91628.03027.98327.88428.05327.968
    DCGAN28.27528.21027.76228.59928.58128.40228.39227.73828.25328.246
    WGAN28.77228.61228.77629.44828.70929.14429.35528.72628.62928.908
    ASLGAN29.05228.86529.02729.61428.88029.25829.57628.99428.85029.124
    下载: 导出CSV 
    | 显示表格
    表  4  生成图像与真实图像的SSIM值对比结果
    Table  4.  Comparison results of SSIM values of generated image and real image
    方法滚动体故障内圈故障外圈故障平均值
    123123123
    GAN0.5030.5040.5380.5810.4520.5410.6230.4680.5050.524
    DCGAN0.5830.4730.1570.6580.4350.4690.6660.1650.4910.455
    WGAN0.4950.4590.5040.6520.4150.5710.6920.4840.4720.527
    ASLGAN0.5410.5280.5500.6740.4530.5890.7060.5730.5120.569
    下载: 导出CSV 
    | 显示表格
    表  5  生成图像与真实图像的LPIPS值对比结果
    Table  5.  Comparison results of LPIPS values of generated image and real image
    方法滚动体故障内圈故障外圈故障平均值
    123123123
    GAN15.23815.28015.22015.41215.43515.22915.16915.60515.31715.323
    DCGAN14.62815.09416.49314.25714.85614.66314.44816.52915.21715.132
    WGAN14.50014.80514.51013.88414.82814.12914.02014.58714.98914.473
    ASLGAN14.27414.56714.29813.79014.67014.05013.85514.30114.75214.284
    下载: 导出CSV 
    | 显示表格

    PSNR用于衡量图像质量和真实图像的相似程度,数值越高表示相似度越高、图像质量越好。由表3可见,ASLGAN生成的图像与真实图像的PSNR值高于其他模型,表明ASLGAN的生成效果优于其他模型。SSIM用于衡量图像相似性,考虑亮度、对比度和结构等信息。数值越高表示图像相似度越高。由表4可见,ASLGAN生成图像的SSIM值明显高于其他模型,表明ASLGAN的生成效果优于其他模型。LPIPS用于度量图像间的感知相似度,不同于PSNR和SSIM,LPIPS基于深度神经网络模型,不依赖于简单的数学公式。数值越低表示图像越相似。由表5可见,ASLGAN生成的图像的LPIPS值显著低于其他模型,表明ASLGAN的生成效果优于其他模型。

    为突显ASLGAN生成效果的卓越性,以滚动体故障2为例,由GAN、DCGAN、WGAN和ASLGAN四种模型生成的时频图像与真实图像的对比结果,如图5所示。由图可知,GAN生成图像效果的最差,可能是由梯度消失和模式崩溃造成的。DCGAN在GAN的基础上引入卷积神经网络,增强了对图像特征的学习能力,因此生成的图像比GAN效果好,但在某些时间段和某些频率范围仍与真实图像存在差距。WGAN在DCGAN的基础上,改进了损失函数,提高了训练的稳定性,因此生成的图像比DCGAN效果好,但在低频分量和中频分量上仍与真实图像存在差距。ASLGAN在WGAN的基础上,增加了自适应频谱损失,生成的图像无论是在低频分量还是高频分量上都与真实图像更相似,验证了使用自适应频谱损失后生成效果得到显著提高。

    图  5  不同生成模型的生成效果对比图
    Figure  5.  Comparison of generation results of different generation models

    将ASLGAN生成的图像扩展到原数据集中,以平衡各类样本的数量。将扩充后的平衡数据集输入到CNN故障分类模型中进行训练。最后,将测试集输入到训练好的分类模型中,得到4种模型的故障诊断结果。GAN、DCGAN、WGAN和ASLGAN生成模型的故障识别率分别为96.8%、98.8%、99.1%和99.6%。ASLGAN生成模型的故障识别率明显高于其他模型。

    为更直观比较分类结果,利用混淆矩阵对比上述4种方法的故障诊断结果,如图6所示。图中,纵轴为样本的预测标签,横轴为样本的真实标签,每个矩阵元素代表一个类别的样本被预测为另一个类别的次数。

    图  6  不同模型的混淆矩阵
    Figure  6.  Confusion matrix of different models

    本研究提出一种用于不平衡样本条件下基于ASLGAN的轴承故障诊断方法。首先利用短时傅里叶变换将轴承振动信号转换为时频图像,然后利用ASLGAN生成样本量少的故障样本,以平衡训练数据集,最后将平衡后的训练数据集输入到故障分类模型中进行训练。利用CWRU轴承数据集,与其他生成模型对比试验可得:1)ASLGAN能够生成与原始样本相似性更高、质量更好的样本;2)利用ASLGAN生成的样本进行故障分类模型训练,能够显著提高故障识别准确率。

    本研究所提方法只适用于同种工况下的单一故障,在当前复杂的机械系统中,变工况下的复合故障的诊断问题也亟需解决。

  • 图  1  生成对抗网络结构图

    Figure  1.  Structure diagram of GAN

    图  2  两向量间的谱距离

    Figure  2.  Spectral distance between two vectors

    图  3  所提方法流程图

    Figure  3.  Flowchart of proposed method

    图  4  生成图像与真实图像的对比图

    Figure  4.  Comparison between generated image and real image

    图  5  不同生成模型的生成效果对比图

    Figure  5.  Comparison of generation results of different generation models

    图  6  不同模型的混淆矩阵

    Figure  6.  Confusion matrix of different models

    表  1  轴承数据集详细信息

    Table  1.   Bearing dataset details

    故障位置 故障深度/mm 样本数(训练集/测试集) 类别名称 标签
    100/100 正常 0
    滚动体 0.178 20/100 滚动体故障1 1
    0.356 20/100 滚动体故障2 2
    0.534 20/100 滚动体故障3 3
    内圈 0.178 20/100 内圈故障1 4
    0.356 20/100 内圈故障2 5
    0.534 20/100 内圈故障3 6
    外圈 0.178 20/100 外圈故障1 7
    0.356 20/100 外圈故障2 8
    0.534 20/100 外圈故障3 9
    下载: 导出CSV

    表  2  ASLGAN生成模型与CNN故障分类模型架构

    Table  2.   Architectures of ASLGAN generative model and CNN fault classification model

    模型名称 模型结构组成 主要参数 输出尺寸
    生成器 Input 100 × 1 × 1
    ConvTranspose_2D + BN + ReLu 100,512,4,1,0 512 × 4 × 4
    ConvTranspose_2D + BN + ReLu 512,256,4,2,1 256 × 8 × 8
    ConvTranspose_2D + BN + ReLu 256,128,4,2,1 128 × 16 × 16
    ConvTranspose_2D + BN + ReLu 128,64,4,2,1 64 × 32 × 32
    ConvTranspose_2D + Tanh 64,3,4,2,1 3 × 64 × 64
    判别器 Input 3 × 64 × 64
    Conv_2D + LeakReLu 3,64,4,2,1 64 × 32 × 32
    Conv_2D + BN + LeakReLu 64,128,4,2,1 128 × 16 × 16
    Conv_2D + BN + LeakReLu 128,256,4,2,1 256 × 8 × 8
    Conv_2D + BN + LeakReLu 256,512,4,2,1 512 × 4 × 4
    Conv_2D 512,1,4,1,0 1 × 1 × 1
    CNN分类器 Input 3 × 64 × 64
    Conv_2D + ReLu + MaxPool 3,16,5,1,0 16 × 60 × 60
    Conv_2D + ReLu + MaxPool 16,32,5,1,0 32 × 26 × 26
    Conv_2D + ReLu + MaxPool 32,64,5,1,0 64 × 9 × 9
    Flatten 1024
    Linear + ReLu 1024,120 120
    Linear + ReLu 120,10 10
    下载: 导出CSV

    表  3  生成图像与真实图像的PSNR值对比结果

    Table  3.   Comparison results of PSNR values of generated image and real image

    方法滚动体故障内圈故障外圈故障平均值
    123123123
    GAN27.99227.97127.98027.90527.91628.03027.98327.88428.05327.968
    DCGAN28.27528.21027.76228.59928.58128.40228.39227.73828.25328.246
    WGAN28.77228.61228.77629.44828.70929.14429.35528.72628.62928.908
    ASLGAN29.05228.86529.02729.61428.88029.25829.57628.99428.85029.124
    下载: 导出CSV

    表  4  生成图像与真实图像的SSIM值对比结果

    Table  4.   Comparison results of SSIM values of generated image and real image

    方法滚动体故障内圈故障外圈故障平均值
    123123123
    GAN0.5030.5040.5380.5810.4520.5410.6230.4680.5050.524
    DCGAN0.5830.4730.1570.6580.4350.4690.6660.1650.4910.455
    WGAN0.4950.4590.5040.6520.4150.5710.6920.4840.4720.527
    ASLGAN0.5410.5280.5500.6740.4530.5890.7060.5730.5120.569
    下载: 导出CSV

    表  5  生成图像与真实图像的LPIPS值对比结果

    Table  5.   Comparison results of LPIPS values of generated image and real image

    方法滚动体故障内圈故障外圈故障平均值
    123123123
    GAN15.23815.28015.22015.41215.43515.22915.16915.60515.31715.323
    DCGAN14.62815.09416.49314.25714.85614.66314.44816.52915.21715.132
    WGAN14.50014.80514.51013.88414.82814.12914.02014.58714.98914.473
    ASLGAN14.27414.56714.29813.79014.67014.05013.85514.30114.75214.284
    下载: 导出CSV
  • [1] FAN J G, YUAN X F, MIAO Z M, et al. Full attention Wasserstein GAN with gradient normalization for fault diagnosis under imbalanced data[J] . IEEE Transactions on Instrumentation and Measurement,2022,71:1 − 16.
    [2] LEI Y G, YANG B, JIANG X W, et al. Applications of machine learning to machine fault diagnosis: a review and roadmap[J] . Mechanical Systems and Signal Processing,2020,138:106587. doi: 10.1016/j.ymssp.2019.106587
    [3] 郭玉荣, 茅健, 赵嫚. 基于CNN与注意力BiLSTM的轴承剩余使用寿命预测方法[J] . 上海工程技术大学学报,2023,37(1):96 − 104.
    [4] SHAO H D, XIA M, WAN J F, et al. Modified stacked autoencoder using adaptive morlet wavelet for intelligent fault diagnosis of rotating machinery[J] . IEEE/ASME Transactions on Mechatronics,2022,27(1):24 − 33. doi: 10.1109/TMECH.2021.3058061
    [5] JIA F, LEI Y G, LIN J, et al. Deep neural networks: a promising tool for fault characteristic mining and intelligent diagnosis of rotating machinery with massive data[J] . Mechanical Systems and Signal Processing,2016,72/73:303 − 315. doi: 10.1016/j.ymssp.2015.10.025
    [6] SHAO H D, JIANG H K, ZHANG H Z, et al. Rolling bearing fault feature learning using improved convolutional deep belief network with compressed sensing[J] . Mechanical Systems and Signal Processing,2018,100:743 − 765. doi: 10.1016/j.ymssp.2017.08.002
    [7] ZHANG T C, CHEN J L, LI F D, et al. Intelligent fault diagnosis of machines with small & imbalanced data: a state-of-the-art review and possible extensions[J] . ISA Transactions,2022,119:152 − 171. doi: 10.1016/j.isatra.2021.02.042
    [8] GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C] //Proceedings of Conference on Neural Information Processing Systems. New York: ACM, 2020: 139−144.
    [9] ZHANG T C, CHEN J L, LI F D, et al. A small sample focused intelligent fault diagnosis scheme of machines via multi-modules learning with gradient penalized generative adversarial networks[J] . IEEE Transactions on Industrial Electronics,2020,68(10):10130 − 10141.
    [10] WANG Z R, WANG J, WANG Y R. An intelligent diagnosis scheme based on generative adversarial learning deep neural networks and its application to planetary gearbox fault pattern recognition[J] . Neurocomputing,2018,310:213 − 222. doi: 10.1016/j.neucom.2018.05.024
    [11] ZHOU F N, YANG S, FUJITA H, et al. Deep learning fault diagnosis method based on global optimization GAN for unbalanced data[J] . Knowledge-Based Systems,2020,187:104837. doi: 10.1016/j.knosys.2019.07.008
    [12] 肖雄, 肖宇雄, 张勇军, 等. 基于二维灰度图的数据增强方法在电机轴承故障诊断的应用研究[J] . 中国电机工程学报,2021,41(2):738 − 749.
    [13] ZHANG L, ZHANG H, CAI G W, et al. The multiclass fault diagnosis of wind turbine bearing based on multisource signal fusion and deep learning generative model[J] . IEEE Transactions on Instrumentation and Measurement,2022,71:1 − 12.
    [14] LIANG P, DENG C, WU J, et al. Single and simultaneous fault diagnosis of gearbox via a semi-supervised and high-accuracy adversarial learning framework[J] . Knowledge-Based Systems,2020,198:105895. doi: 10.1016/j.knosys.2020.105895
    [15] TAO H F, WANG P, CHEN Y, et al. An unsupervised fault diagnosis method for rolling bearing using STFT and generative neural networks[J] . Journal of the Franklin Institute,2020,357(11):7286 − 7307 doi: 10.1016/j.jfranklin.2020.04.024
    [16] THOMAZELLA R, NASCIMENTO W L, ROBERTO P A, et al. Digital signal processing for self-vibration monitoring in grinding: A new approach based on the time-frequency analysis of vibration signals[J] . Measurement,2019,145:71 − 83. doi: 10.1016/j.measurement.2019.05.079
    [17] WANG Z, BOVIK A C, SHEIKH H R, et al. Image quality assessment: from error visibility to structural similarity[J] . IEEE Transactions on Image Processing,2004,13(4):600 − 612. doi: 10.1109/TIP.2003.819861
    [18] ZHANG R, ISOLA P, EFROS A A, et al. The unreasonable effectiveness of deep features as a perceptual metric[C] //Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 586−595.
    [19] CRESWELL A, WHITE T, DUMOULIN V, et al. Generative Adversarial Networks: an overview[J] . IEEE Signal Processing Magazine,2018,35(1):53 − 65. doi: 10.1109/MSP.2017.2765202
    [20] RADFORD A, METZ L, CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks[C] //International Conference on Learning Representations. San Juan: ICLR, 2016.
    [21] ARJOVSKY M, CHINTALA S, BOTTOU L. Wasserstein generative adversarial networks[C] //Proceedings of the 34th International Conference on Machine Learning. New York: ACM, 2017: 214−223.
  • 加载中
图(6) / 表(5)
计量
  • 文章访问数:  347
  • HTML全文浏览量:  169
  • PDF下载量:  18
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-12-08
  • 刊出日期:  2024-12-31

目录

/

返回文章
返回