要約
eXplanation Based Learning (XBL) は、説明と対話することで深層学習モデルをトレーニングする透過的な方法を提供する対話型学習アプローチです。
XBL は損失関数を拡張し、画像特徴のユーザー アノテーションからの説明の逸脱に基づいてモデルにペナルティを課します。
XBL に関する文献は、ほとんどが視覚的なモデルの説明と画像特徴の注釈の交差点に依存しています。
学習者がトレーニング データセットの重要な領域に焦点を当てるようにトレーニングするカテゴリ損失に距離を考慮した説明損失を追加する方法を紹介します。
距離は、説明損失を計算するための適切なアプローチです。これは、勾配加重クラス アクティベーション マッピング (Grad-CAM) などの視覚的なモデルの説明が注釈として厳密に制限されておらず、それらの交差部分が関連する画像からのモデルの焦点のずれに関する完全な情報を提供しない可能性があるためです。
地域。
既存のメトリクスを使用してモデルを評価することに加えて、既存のメトリクスよりもモデルのパフォーマンスについてより有益な、視覚的な特徴属性ベースのモデルの説明を評価するための解釈可能性メトリクスを提案します。
3 つの画像分類タスクに対する提案手法のパフォーマンスを実証します。
要約(オリジナル)
eXplanation Based Learning (XBL) is an interactive learning approach that provides a transparent method of training deep learning models by interacting with their explanations. XBL augments loss functions to penalize a model based on deviation of its explanations from user annotation of image features. The literature on XBL mostly depends on the intersection of visual model explanations and image feature annotations. We present a method to add a distance-aware explanation loss to categorical losses that trains a learner to focus on important regions of a training dataset. Distance is an appropriate approach for calculating explanation loss since visual model explanations such as Gradient-weighted Class Activation Mapping (Grad-CAMs) are not strictly bounded as annotations and their intersections may not provide complete information on the deviation of a model’s focus from relevant image regions. In addition to assessing our model using existing metrics, we propose an interpretability metric for evaluating visual feature-attribution based model explanations that is more informative of the model’s performance than existing metrics. We demonstrate performance of our proposed method on three image classification tasks.
arxiv情報
著者 | Misgina Tsighe Hagos,Niamh Belton,Kathleen M. Curran,Brian Mac Namee |
発行日 | 2023-09-11 15:33:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google