要約
この作業は、深い学習(DL)を人間の推論能力に合わせており、より効率的で解釈可能な、堅牢な画像分類を可能にする必要があります。
これには、説明可能性、因果関係、生物学的ビジョンの3つの観点からアプローチします。
はじめに、手術章に飛び込む前にこの作業を開きます。
まず、医療画像のニューラルネットワークの視覚化手法を評価し、乳房質量分類のための説明可能な設計方法を検証します。
Xaiと因果関係の交差点での包括的なレビューが続きます。ここでは、過去と将来の研究を組織するための一般的な足場を導入し、2番目の視点の基礎を築きます。
因果関係の方向では、医療画像の共起を特徴とする新しいモジュールを提案し、より効果的で説明可能な予測につながります。
さらに、因果的概念、対照学習、特徴の解き、事前知識を統合して一般化を強化する一般的な枠組みであるCrocodileをさらに紹介します。
最後に、人間がオブジェクトをどのように認識するかを調べ、コンテキストに触れた注意メカニズムを備えた接続性に触発されたネットワークであるCocorecoを提案する生物学的ビジョンを探ります。
全体として、主要な調査結果には次のものが含まれます。(i)単純な活性化の最大化には、医療イメージングDLモデルの洞察がありません。
(ii)プロトタイプパートの学習は効果的で放射線学的に整合しています。
(iii)xaiおよび因果mlは深く接続されています。
(iv)パフォーマンスと解釈性を向上させるために、アプリオリ情報なしで弱い因果信号を活用できます。
(v)当社のフレームワークは、医療ドメインと分散除外データ全体に一般化されています。
(vi)生物学的回路モチーフを組み込むことで、人間に合った認識が向上します。
この作業は、人間に合ったDLに貢献し、研究と臨床採用のギャップを埋めるための経路を強調し、信頼の改善、診断精度、安全な展開に影響を与えます。
要約(オリジナル)
This work aligns deep learning (DL) with human reasoning capabilities and needs to enable more efficient, interpretable, and robust image classification. We approach this from three perspectives: explainability, causality, and biological vision. Introduction and background open this work before diving into operative chapters. First, we assess neural networks’ visualization techniques for medical images and validate an explainable-by-design method for breast mass classification. A comprehensive review at the intersection of XAI and causality follows, where we introduce a general scaffold to organize past and future research, laying the groundwork for our second perspective. In the causality direction, we propose novel modules that exploit feature co-occurrence in medical images, leading to more effective and explainable predictions. We further introduce CROCODILE, a general framework that integrates causal concepts, contrastive learning, feature disentanglement, and prior knowledge to enhance generalization. Lastly, we explore biological vision, examining how humans recognize objects, and propose CoCoReco, a connectivity-inspired network with context-aware attention mechanisms. Overall, our key findings include: (i) simple activation maximization lacks insight for medical imaging DL models; (ii) prototypical-part learning is effective and radiologically aligned; (iii) XAI and causal ML are deeply connected; (iv) weak causal signals can be leveraged without a priori information to improve performance and interpretability; (v) our framework generalizes across medical domains and out-of-distribution data; (vi) incorporating biological circuit motifs improves human-aligned recognition. This work contributes toward human-aligned DL and highlights pathways to bridge the gap between research and clinical adoption, with implications for improved trust, diagnostic accuracy, and safe deployment.
arxiv情報
著者 | Gianluca Carloni |
発行日 | 2025-04-18 14:40:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google