要約
Deep Learning(DL)モデル画像を処理して、大規模なインフラストラクチャコンポーネントの健康状態を認識することができます。バイアスを示し、非因果ショートカットに依存します。
説明可能な人工知能(XAI)はこれらの問題に対処できますが、XAI技術によって生成された説明を手動で分析することは時間がかかり、エラーが発生しやすくなります。
この作業は、事後の説明と半監視学習を組み合わせて、正しく分類された画像の説明から逸脱する異常な説明を自動的に特定するため、モデル異常な行動を示す可能性のある新しいフレームワークを提案します。
これにより、メンテナンスの意思決定者のワークロードが大幅に削減されます。意思決定者は、異常な説明を持っているとフラグを立てた画像を手動で再分類する必要があります。
提案されたフレームワークは、2つの異なる畳み込みニューラルネットワーク(CNNS)、GRADCAMの説明、および深い半監視の異常検出を考慮して、電力グリッドインフラストラクチャモニタリング用の絶縁体シェルのドローン収集画像に適用されます。
2つの故障したクラスの平均分類精度は8%改善され、メンテナンスオペレーターは画像の15%のみを手動で再分類するために必要です。
提案されたフレームワークを、忠実さの指標に基づいた最先端のアプローチと比較します。得られた実験結果は、提案されたフレームワークが忠実なアプローチのスコアよりも大きなF_1スコアを一貫して達成することを示しています。
さらに、提案されたフレームワークは、絶縁体シェルに印刷されたIDタグの存在など、非腸のショートカットに起因する正しい分類を正常に識別します。
要約(オリジナル)
Deep Learning (DL) models processing images to recognize the health state of large infrastructure components can exhibit biases and rely on non-causal shortcuts. eXplainable Artificial Intelligence (XAI) can address these issues but manually analyzing explanations generated by XAI techniques is time-consuming and prone to errors. This work proposes a novel framework that combines post-hoc explanations with semi-supervised learning to automatically identify anomalous explanations that deviate from those of correctly classified images and may therefore indicate model abnormal behaviors. This significantly reduces the workload for maintenance decision-makers, who only need to manually reclassify images flagged as having anomalous explanations. The proposed framework is applied to drone-collected images of insulator shells for power grid infrastructure monitoring, considering two different Convolutional Neural Networks (CNNs), GradCAM explanations and Deep Semi-Supervised Anomaly Detection. The average classification accuracy on two faulty classes is improved by 8% and maintenance operators are required to manually reclassify only 15% of the images. We compare the proposed framework with a state-of-the-art approach based on the faithfulness metric: the experimental results obtained demonstrate that the proposed framework consistently achieves F_1 scores larger than those of the faithfulness-based approach. Additionally, the proposed framework successfully identifies correct classifications that result from non-causal shortcuts, such as the presence of ID tags printed on insulator shells.
arxiv情報
著者 | Giovanni Floreale,Piero Baraldi,Enrico Zio,Olga Fink |
発行日 | 2025-03-19 16:57:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google