要約
パーツプロトタイプ モデルは、設計によって説明可能な画像分類子であり、ブラック ボックス AI の有望な代替手段です。
この論文では、解釈可能な機械学習、特に現実世界の医療画像データの自動診断サポートに対する PIP-Net の適用可能性と可能性を検討します。
PIP-Net は人間が理解できるプロトタイプの画像部分を学習し、骨折検出や皮膚がん診断のための精度と解釈可能性を評価します。
PIP-Net の意思決定プロセスは、画像レベルのクラス ラベルのみが提供されているものの、医療分類標準に準拠していることがわかりました。
PIP-Net のプロトタイプの教師なし事前トレーニングにより、X 線写真内の望ましくないテキストやラベル付けエラーなどのデータ品質の問題を簡単に特定できます。
さらに、私たちは、望ましくないプロトタイプを直接無効にすることで、人間が PIP-Net の推論を手動で修正できることを初めて示しました。
私たちは、パーツプロトタイプモデルは、その解釈可能性と高度なモデルデバッグの可能性により、医療用途に有望であると結論付けています。
要約(オリジナル)
Part-prototype models are explainable-by-design image classifiers, and a promising alternative to black box AI. This paper explores the applicability and potential of interpretable machine learning, in particular PIP-Net, for automated diagnosis support on real-world medical imaging data. PIP-Net learns human-understandable prototypical image parts and we evaluate its accuracy and interpretability for fracture detection and skin cancer diagnosis. We find that PIP-Net’s decision making process is in line with medical classification standards, while only provided with image-level class labels. Because of PIP-Net’s unsupervised pretraining of prototypes, data quality problems such as undesired text in an X-ray or labelling errors can be easily identified. Additionally, we are the first to show that humans can manually correct the reasoning of PIP-Net by directly disabling undesired prototypes. We conclude that part-prototype models are promising for medical applications due to their interpretability and potential for advanced model debugging.
arxiv情報
著者 | Meike Nauta,Johannes H. Hegeman,Jeroen Geerdink,Jörg Schlötterer,Maurice van Keulen,Christin Seifert |
発行日 | 2023-09-11 07:22:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google