This actually looks like that: Proto-BagNets for local and global interpretability-by-design

要約

解釈可能性は、医療診断を含む一か八かのアプリケーションで機械学習モデルを使用するための重要な要件です。
ブラックボックス モデルの説明は、モデルの動作を忠実に反映しない事後的な手法にほとんど依存しています。
改善策として、プロトタイプベースのネットワークが提案されていますが、その説明は粗く、信頼性が低く、不正確であることがわかっているため、解釈可能性は限られています。
この研究では、設計によって解釈可能なプロトタイプベースのモデルである Proto-BagNets を紹介します。これは、バッグオブローカル特徴モデルとプロトタイプ学習の利点を組み合わせて、正確で解釈可能なものに必要な意味のある一貫した関連性のあるプロトタイプ部品を提供します。
画像分類タスク。
私たちは、公的に入手可能な網膜 OCT データに対するドルーゼン検出について Proto-BagNet を評価しました。
Proto-BagNet は、忠実かつ正確で、臨床的に意味のあるローカルおよびグローバルな説明を提供しながら、最先端の解釈可能なモデルおよび解釈不可能なモデルと同等のパフォーマンスを発揮しました。
コードは https://github.com/kdjoumessi/Proto-BagNets で入手できます。

要約(オリジナル)

Interpretability is a key requirement for the use of machine learning models in high-stakes applications, including medical diagnosis. Explaining black-box models mostly relies on post-hoc methods that do not faithfully reflect the model’s behavior. As a remedy, prototype-based networks have been proposed, but their interpretability is limited as they have been shown to provide coarse, unreliable, and imprecise explanations. In this work, we introduce Proto-BagNets, an interpretable-by-design prototype-based model that combines the advantages of bag-of-local feature models and prototype learning to provide meaningful, coherent, and relevant prototypical parts needed for accurate and interpretable image classification tasks. We evaluated the Proto-BagNet for drusen detection on publicly available retinal OCT data. The Proto-BagNet performed comparably to the state-of-the-art interpretable and non-interpretable models while providing faithful, accurate, and clinically meaningful local and global explanations. The code is available at https://github.com/kdjoumessi/Proto-BagNets.

arxiv情報

著者 Kerol Djoumessi,Bubacarr Bah,Laura Kühlewein,Philipp Berens,Lisa Koch
発行日 2024-06-24 08:13:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク