要約
ディープ ニューラル ネットワーク (DNN) は、医療から社会、さらには司法に至るまで、無数の重要なアプリケーションでの意思決定に広く使用されています。
これらの決定の重要性を考えると、これらのモデルを解釈できることが重要です。
下流のモデルのパフォーマンスを妨げることなくノイズを適用できる画像の領域を学習することにより、画像セグメンテーション モデルを解釈する新しい方法を紹介します。
この方法を CT スキャンの膵臓のセグメンテーションに適用し、この方法の品質を Grad-CAM やオクルージョン感度などの既存の説明可能性技術と定性的に比較します。
さらに、他の方法とは異なり、解釈可能性モデルは、不明瞭な画像に対する下流のパフォーマンスに基づいて定量的に評価できることを示しています。
要約(オリジナル)
Deep Neural Networks (DNNs) are widely used for decision making in a myriad of critical applications, ranging from medical to societal and even judicial. Given the importance of these decisions, it is crucial for us to be able to interpret these models. We introduce a new method for interpreting image segmentation models by learning regions of images in which noise can be applied without hindering downstream model performance. We apply this method to segmentation of the pancreas in CT scans, and qualitatively compare the quality of the method to existing explainability techniques, such as Grad-CAM and occlusion sensitivity. Additionally we show that, unlike other methods, our interpretability model can be quantitatively evaluated based on the downstream performance over obscured images.
arxiv情報
著者 | Teddy Koker,Fatemehsadat Mireshghallah,Tom Titcombe,Georgios Kaissis |
発行日 | 2022-11-25 17:36:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google