要約
解釈可能性は、医療診断を含む一か八かのアプリケーションで機械学習モデルを使用するための重要な要件です。
ブラックボックス モデルの説明は、モデルの動作を忠実に反映しない事後的な手法にほとんど依存しています。
解決策として、プロトタイプベースのネットワークが提案されていますが、その解釈可能性は、粗く、信頼性が低く、不正確な説明を提供することがわかっているため、制限されています。この研究では、設計によって解釈可能なプロトタイプである Proto-BagNets を紹介します。
バッグオブローカル特徴モデルとプロトタイプ学習の利点を組み合わせたベースのモデルで、正確で解釈可能な画像分類タスクに必要な、意味があり、一貫性があり、関連性のあるプロトタイプ部分を提供します。
私たちは、公的に入手可能な網膜 OCT データに対するドルーゼン検出について Proto-BagNet を評価しました。
Proto-BagNet は、忠実かつ正確で、臨床的に意味のあるローカルおよびグローバルな説明を提供しながら、最先端の解釈可能なモデルおよび解釈不可能なモデルと同等のパフォーマンスを発揮しました。
コードは https://github.com/kdjoumessi/Proto-BagNets で入手できます。
要約(オリジナル)
Interpretability is a key requirement for the use of machine learning models in high-stakes applications, including medical diagnosis. Explaining black-box models mostly relies on post-hoc methods that do not faithfully reflect the model’s behavior. As a remedy, prototype-based networks have been proposed, but their interpretability is limited as they have been shown to provide coarse, unreliable, and imprecise explanations.In this work, we introduce Proto-BagNets, an interpretable-by-design prototype-based model that combines the advantages of bag-of-local feature models and prototype learning to provide meaningful, coherent, and relevant prototypical parts needed for accurate and interpretable image classification tasks. We evaluated the Proto-BagNet for drusen detection on publicly available retinal OCT data. The Proto-BagNet performed comparably to the state-of-the-art interpretable and non-interpretable models while providing faithful, accurate, and clinically meaningful local and global explanations. The code is available at https://github.com/kdjoumessi/Proto-BagNets.
arxiv情報
著者 | Kerol Djoumessi,Bubacarr Bah,Laura Kühlewein,Philipp Berens,Lisa Koch |
発行日 | 2024-06-21 14:12:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google