要約
深層学習に基づくインテリジェント障害診断 (IFD) は、効果的で柔軟なソリューションであることが証明されており、広範な研究が注目されています。
ディープ ニューラル ネットワークは、さまざまなアプリケーションの膨大な量の代表的なラベル付きデータから豊富な表現を学習できます。
IFD では、広範なドメイン知識を必要とせずに、エンドツーエンドの方法で信号から高い分類パフォーマンスを実現します。
ただし、深層学習モデルは通常、トレーニングされたデータ分布でのみ良好なパフォーマンスを発揮します。
別のディストリビューションに適用すると、パフォーマンスが低下する可能性があります。
これは IFD でも観察されており、ラベル付きデータが収集されたときとは異なる作業条件で資産が運用されることがよくあります。
教師なしドメイン アダプテーション (UDA) は、ソース ドメインではラベル付きデータが利用可能であり、ターゲット ドメインではラベルなしデータのみが利用可能であるシナリオを扱います。この場合、ドメインは動作条件に対応する可能性があります。
最近の手法は、ターゲット サンプルに対する信頼性の高い疑似ラベルを使用したトレーニングに依存しています。
ただし、信頼度に基づいた擬似ラベルの選択は、主に自信過剰な予測が原因で、ターゲット ドメインでの校正が不十分な信頼度推定によって妨げられ、擬似ラベルの品質が制限され、誤差の蓄積につながります。
この論文では、Calibrated Adaptive Teacher (CAT) と呼ばれる新しい UDA 手法を提案します。この手法では、ポストホック キャリブレーション手法を活用して、自己学習プロセス全体を通じて教師ネットワークの予測をキャリブレーションすることを提案します。
当社では、ドメイン適応型 IFD で CAT を評価し、さまざまな動作条件下でベアリングの故障診断を行うためのパーダーボルン ベンチマークで広範な実験を行っています。
私たちが提案する方法は、ほとんどの転送タスクで最先端のパフォーマンスを実現します。
要約(オリジナル)
Intelligent Fault Diagnosis (IFD) based on deep learning has proven to be an effective and flexible solution, attracting extensive research. Deep neural networks can learn rich representations from vast amounts of representative labeled data for various applications. In IFD, they achieve high classification performance from signals in an end-to-end manner, without requiring extensive domain knowledge. However, deep learning models usually only perform well on the data distribution they have been trained on. When applied to a different distribution, they may experience performance drops. This is also observed in IFD, where assets are often operated in working conditions different from those in which labeled data have been collected. Unsupervised domain adaptation (UDA) deals with the scenario where labeled data are available in a source domain, and only unlabeled data are available in a target domain, where domains may correspond to operating conditions. Recent methods rely on training with confident pseudo-labels for target samples. However, the confidence-based selection of pseudo-labels is hindered by poorly calibrated confidence estimates in the target domain, primarily due to over-confident predictions, which limits the quality of pseudo-labels and leads to error accumulation. In this paper, we propose a novel UDA method called Calibrated Adaptive Teacher (CAT), where we propose to calibrate the predictions of the teacher network throughout the self-training process, leveraging post-hoc calibration techniques. We evaluate CAT on domain-adaptive IFD and perform extensive experiments on the Paderborn benchmark for bearing fault diagnosis under varying operating conditions. Our proposed method achieves state-of-the-art performance on most transfer tasks.
arxiv情報
著者 | Florent Forest,Olga Fink |
発行日 | 2023-12-05 15:19:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google