要約
クラス増分障害診断では、モデルが以前の知識を保持しながら新しい障害クラスに適応する必要があります。
ただし、不均衡なロングテールデータに関する研究は限られています。
数ショットの故障データから識別特徴を抽出することは困難であり、新しい故障クラスを追加するには、多くの場合、コストのかかるモデルの再トレーニングが必要になります。
さらに、既存の手法の増分トレーニングには壊滅的な忘却の危険があり、深刻なクラスの不均衡により、モデルの決定が通常のクラスに偏る可能性があります。
これらの問題に取り組むために、クラス増分故障診断のための教師あり対比知識蒸留 (SCLIFD) フレームワークを導入します。これは、表現学習能力の向上と忘却の低減のための教師あり対比知識蒸留、壊滅的な忘却を軽減するためのサンプル再生のための新しい優先順位付きサンプル選択方法を提案します。
クラスの不均衡に対処するためのランダム フォレスト分類器。
さまざまな不均衡比率にわたるシミュレートされた現実世界の産業データセットに対する広範な実験により、既存のアプローチに対する SCLIFD の優位性が実証されました。
私たちのコードは https://github.com/Zhang-Henry/SCLIFD_TII にあります。
要約(オリジナル)
Class-incremental fault diagnosis requires a model to adapt to new fault classes while retaining previous knowledge. However, limited research exists for imbalanced and long-tailed data. Extracting discriminative features from few-shot fault data is challenging, and adding new fault classes often demands costly model retraining. Moreover, incremental training of existing methods risks catastrophic forgetting, and severe class imbalance can bias the model’s decisions toward normal classes. To tackle these issues, we introduce a Supervised Contrastive knowledge distiLlation for class Incremental Fault Diagnosis (SCLIFD) framework proposing supervised contrastive knowledge distillation for improved representation learning capability and less forgetting, a novel prioritized exemplar selection method for sample replay to alleviate catastrophic forgetting, and the Random Forest Classifier to address the class imbalance. Extensive experimentation on simulated and real-world industrial datasets across various imbalance ratios demonstrates the superiority of SCLIFD over existing approaches. Our code can be found at https://github.com/Zhang-Henry/SCLIFD_TII.
arxiv情報
著者 | Hanrong Zhang,Yifei Yao,Zixuan Wang,Jiayuan Su,Mengxuan Li,Peng Peng,Hongwei Wang |
発行日 | 2025-01-16 13:20:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google