A novel asymmetrical autoencoder with a sparsifying discrete cosine Stockwell transform layer for gearbox sensor data compression

要約

効率的な圧縮モデルの欠如は、非接触ギア故障診断問題におけるギアボックス データの無線送信にとって依然として課題となっています。
この論文では、センサー信号を圧縮するための変換ドメイン層を備えた信号適応型非対称オートエンコーダーを紹介します。
まず、新しい離散コサイン ストックウェル変換 (DCST) レイヤーが導入され、マルチレイヤー オートエンコーダーの線形レイヤーが置き換えられます。
トレーニング可能なフィルターは、畳み込みの乗算特性を利用して DCST ドメインに実装されます。
トレーニング可能なハードしきい値レイヤーを適用して、DCST レイヤーの冗長データを削減し、特徴マップをスパースにします。
線形層と比較して、DCST 層はトレーニング可能なパラメータの数を減らし、データ再構成の精度を向上させます。
第 2 に、スパース化 DCST レイヤーを使用してオートエンコーダーをトレーニングするには、少数のデータセットのみが必要です。
提案された方法は、限定された条件で平均品質スコアが最低で 2.00%、最高で 32.35% 向上するため、コネチカット大学 (UoC) およびサウスイースト大学 (SEU) のギアボックス データセットにおける他のオートエンコーダーベースの方法よりも優れています。
トレーニングサンプルの数

要約(オリジナル)

The lack of an efficient compression model remains a challenge for the wireless transmission of gearbox data in non-contact gear fault diagnosis problems. In this paper, we present a signal-adaptive asymmetrical autoencoder with a transform domain layer to compress sensor signals. First, a new discrete cosine Stockwell transform (DCST) layer is introduced to replace linear layers in a multi-layer autoencoder. A trainable filter is implemented in the DCST domain by utilizing the multiplication property of the convolution. A trainable hard-thresholding layer is applied to reduce redundant data in the DCST layer to make the feature map sparse. In comparison to the linear layer, the DCST layer reduces the number of trainable parameters and improves the accuracy of data reconstruction. Second, training the autoencoder with a sparsifying DCST layer only requires a small number of datasets. The proposed method is superior to other autoencoder-based methods on the University of Connecticut (UoC) and Southeast University (SEU) gearbox datasets, as the average quality score is improved by 2.00% at the lowest and 32.35% at the highest with a limited number of training samples

arxiv情報

著者 Xin Zhu,Daoguang Yang,Hongyi Pan,Hamid Reza Karimi,Didem Ozevin,Ahmet Enis Cetin
発行日 2023-10-04 14:50:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, eess.SP パーマリンク