要約
デジタルマンモグラフィーは乳がんの検出に不可欠であり、ディープラーニングはより迅速かつ正確なマンモグラム分析のための有望なツールを提供します。
放射線医学やその他のリスクの高い環境では、解釈できない (「ブラック ボックス」) 深層学習モデルは不適切であり、これらの分野では解釈可能なモデルを作成することが求められています。
解釈可能なコンピューター ビジョンの最近の研究では、症例ベースの説明にプロトタイプを利用することで、以前はブラック ボックスだったこれらのボックスに透明性が与えられ、マンモグラフィーなどのアプリケーションで高い精度が達成されています。
ただし、これらのモデルは、画像の小さな部分のみが関連している場合に、正確な特徴位置特定に苦労し、画像の大部分を推論します。
この論文は、マンモグラフィーによる質量辺縁分類のための新しいマルチスケールの解釈可能な深層学習モデルを提案することで、このギャップに対処します。
私たちの貢献は、放射線科医の実践に合わせた推論を備えた解釈可能なモデルを提供するだけでなく、粗いプロトタイプから細かいプロトタイプまで、ユーザーが構成可能なプロトタイプを備えたコンピューター ビジョンの一般的なアーキテクチャも提供します。
要約(オリジナル)
Digital mammography is essential to breast cancer detection, and deep learning offers promising tools for faster and more accurate mammogram analysis. In radiology and other high-stakes environments, uninterpretable (‘black box’) deep learning models are unsuitable and there is a call in these fields to make interpretable models. Recent work in interpretable computer vision provides transparency to these formerly black boxes by utilizing prototypes for case-based explanations, achieving high accuracy in applications including mammography. However, these models struggle with precise feature localization, reasoning on large portions of an image when only a small part is relevant. This paper addresses this gap by proposing a novel multi-scale interpretable deep learning model for mammographic mass margin classification. Our contribution not only offers an interpretable model with reasoning aligned with radiologist practices, but also provides a general architecture for computer vision with user-configurable prototypes from coarse- to fine-grained prototypes.
arxiv情報
著者 | Julia Yang,Alina Jade Barnett,Jon Donnelly,Satvik Kishore,Jerry Fang,Fides Regina Schwartz,Chaofan Chen,Joseph Y. Lo,Cynthia Rudin |
発行日 | 2024-06-10 15:44:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google