Does Your Model Think Like an Engineer? Explainable AI for Bearing Fault Detection with Deep Learning

要約

ディープラーニングは、さまざまな関連ユースケースにおける産業用センサーデータの分析にすでに適用され、成功しています。
ただし、多くの優れたパフォーマンス手法の不透明な性質が、現実世界への展開にとって大きな障害となります。
Explainable AI (XAI)、特に特徴帰属技術は、そのようなモデルがどのように意思決定を形成するかについての洞察を可能にすることを約束します。
しかし、このような方法を単純に適用しても、ドメインの専門家に真に有益な問題固有の洞察を提供できないことがよくあります。
この研究では、振動信号から転動体ベアリングの故障を検出するという特定のタスクに焦点を当てます。
私たちは、モデルの基礎となるロジックが専門家の推論とどの程度一致しているかを評価できる、新しいドメイン固有の特徴帰属フレームワークを提案します。
このフレームワークを利用することで、信頼性を検証し、さまざまな優れたパフォーマンスの深層学習モデルの汎化能力をうまく予測することができます。
私たちの方法論は、信号処理ツールを効果的に使用して Explainable AI 技術を強化し、同様の問題のテンプレートとして機能する方法を示しています。

要約(オリジナル)

Deep Learning has already been successfully applied to analyze industrial sensor data in a variety of relevant use cases. However, the opaque nature of many well-performing methods poses a major obstacle for real-world deployment. Explainable AI (XAI) and especially feature attribution techniques promise to enable insights about how such models form their decision. But the plain application of such methods often fails to provide truly informative and problem-specific insights to domain experts. In this work, we focus on the specific task of detecting faults in rolling element bearings from vibration signals. We propose a novel and domain-specific feature attribution framework that allows us to evaluate how well the underlying logic of a model corresponds with expert reasoning. Utilizing the framework we are able to validate the trustworthiness and to successfully anticipate the generalization ability of different well-performing deep learning models. Our methodology demonstrates how signal processing tools can effectively be used to enhance Explainable AI techniques and acts as a template for similar problems.

arxiv情報

著者 Thomas Decker,Michael Lebacher,Volker Tresp
発行日 2023-10-19 17:58:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク