要約
オートエンコーダーは、異常検出、画像処理、機械翻訳などのさまざまな問題によく使用される強力で用途の広いツールです。
しかし、それらの再構成は必ずしも簡単に説明できるとは限りません。
したがって、ディープテイラー分解フレームワークの助けを借りてレイヤーごとの関連性伝播法を拡張することにより、高速な説明可能性ソリューションを提案します。
さらに、グラウンドトゥルースデータが欠落している場合に、説明可能性アプローチとベースラインメソッドを比較するための新しい検証手法を紹介します。
私たちの結果は、既存の方法に関して、提案された説明可能性ソリューションの計算的および定性的な利点を強調しています。
要約(オリジナル)
Autoencoders are a powerful and versatile tool often used for various problems such as anomaly detection, image processing and machine translation. However, their reconstructions are not always trivial to explain. Therefore, we propose a fast explainability solution by extending the Layer-wise Relevance Propagation method with the help of Deep Taylor Decomposition framework. Furthermore, we introduce a novel validation technique for comparing our explainability approach with baseline methods in the case of missing ground-truth data. Our results highlight computational as well as qualitative advantages of the proposed explainability solution with respect to existing methods.
arxiv情報
著者 | Kenyu Kobayashi,Renata Khasanova,Arno Schneuwly,Felix Schmidt,Matteo Casserini |
発行日 | 2023-03-21 10:46:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google