Explainable Transformer Prototypes for Medical Diagnoses

要約

医療診断における人工知能の導入には、精度と有効性だけでなく信頼性も要求され、機械による決定における説明可能性の必要性が強調されます。
自動医用画像診断の最近の傾向は、その優れた機能により、Transformer ベースのアーキテクチャの導入に傾いています。
トランスフォーマーの自己注意機能は、分類プロセス中の重要な領域の特定に貢献するため、メソッドの信頼性が向上します。
ただし、これらの注意メカニズムは複雑であり、AI の決定に直接影響を与える関心領域を効果的に正確に特定するには至らない可能性があります。
私たちの研究では、「ピクセル」ではなく「領域」間の相関関係を強調する独自の注意ブロックを革新するよう努めています。
この課題に対処するために、私たちは、プロトタイプ学習に基づいた革新的なシステムを導入します。このシステムは、わかりやすい視覚的洞察を提供することで、従来のアドホックな視覚的説明手法を超える高度な自己注意メカニズムを備えています。
定量的および定性的な方法論を組み合わせたアプローチを使用して、大規模な NIH 胸部 X 線データセットに対する提案された方法の有効性を実証しました。
実験結果は、私たちが提案した方法が説明可能性に関して有望な方向性を提供することを示し、それがより信頼できるシステムの開発につながり、そのようなテクノロジーを日常の診療所に簡単かつ迅速に導入できるようにすることができます。
コードは www.github.com/NUBagcilab/r2r_proto で入手できます。

要約(オリジナル)

Deployments of artificial intelligence in medical diagnostics mandate not just accuracy and efficacy but also trust, emphasizing the need for explainability in machine decisions. The recent trend in automated medical image diagnostics leans towards the deployment of Transformer-based architectures, credited to their impressive capabilities. Since the self-attention feature of transformers contributes towards identifying crucial regions during the classification process, they enhance the trustability of the methods. However, the complex intricacies of these attention mechanisms may fall short of effectively pinpointing the regions of interest directly influencing AI decisions. Our research endeavors to innovate a unique attention block that underscores the correlation between ‘regions’ rather than ‘pixels’. To address this challenge, we introduce an innovative system grounded in prototype learning, featuring an advanced self-attention mechanism that goes beyond conventional ad-hoc visual explanation techniques by offering comprehensible visual insights. A combined quantitative and qualitative methodological approach was used to demonstrate the effectiveness of the proposed method on the large-scale NIH chest X-ray dataset. Experimental results showed that our proposed method offers a promising direction for explainability, which can lead to the development of more trustable systems, which can facilitate easier and rapid adoption of such technology into routine clinics. The code is available at www.github.com/NUBagcilab/r2r_proto.

arxiv情報

著者 Ugur Demir,Debesh Jha,Zheyuan Zhang,Elif Keles,Bradley Allen,Aggelos K. Katsaggelos,Ulas Bagci
発行日 2024-03-11 17:46:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク