要約
深層学習の継続的な開発により、人間の臨床従事者のパフォーマンス レベルを超える AI モデルの数が増えています。
しかし、実際の臨床現場における AI 診断製品の普及率は依然として期待より大幅に低いままです。
このギャップの決定的な理由の 1 つは、AI モデルのいわゆる「ブラック ボックス」の性質です。
ブラックボックスモデルに対する臨床医の不信感が、AI製品の臨床展開を直接妨げている。
この課題に対処するために、私たちは、単純で効果的な解釈可能な診断フレームワークである ContrastDiagnosis を提案します。
このフレームワークは、固有の透明性を導入し、深層学習モデルに広範な事後説明可能性を提供し、臨床医学診断により適したものにするように設計されています。
ContrastDiagnosis には、ケースベースの推論による診断根拠を提供する対照的な学習メカニズムが組み込まれており、モデルの透明性が向上し、同様の領域を強調表示することで事後的な解釈可能性も提供されます。
高い透明性と説明可能性を維持しながら、AUC 0.977 という高い診断精度を実現しました。
要約(オリジナル)
With the ongoing development of deep learning, an increasing number of AI models have surpassed the performance levels of human clinical practitioners. However, the prevalence of AI diagnostic products in actual clinical practice remains significantly lower than desired. One crucial reason for this gap is the so-called `black box’ nature of AI models. Clinicians’ distrust of black box models has directly hindered the clinical deployment of AI products. To address this challenge, we propose ContrastDiagnosis, a straightforward yet effective interpretable diagnosis framework. This framework is designed to introduce inherent transparency and provide extensive post-hoc explainability for deep learning model, making them more suitable for clinical medical diagnosis. ContrastDiagnosis incorporates a contrastive learning mechanism to provide a case-based reasoning diagnostic rationale, enhancing the model’s transparency and also offers post-hoc interpretability by highlighting similar areas. High diagnostic accuracy was achieved with AUC of 0.977 while maintain a high transparency and explainability.
arxiv情報
著者 | Chenglong Wang,Yinqiao Yi,Yida Wang,Chengxiu Zhang,Yun Liu,Kensaku Mori,Mei Yuan,Guang Yang |
発行日 | 2024-03-08 13:00:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google