要約
ディープ ラーニング モデルの予測をエンド ユーザーに説明する機能は、医療上の意思決定プロセスに人工知能 (AI) の力を活用するための重要な機能です。このプロセスは、通常、不透明で理解しにくいと考えられています。
このホワイト ペーパーでは、最先端の説明可能な人工知能 (XAI) メソッドを適用して、甲状腺結節診断アプリケーションにおけるブラック ボックス AI モデルの予測を説明します。
結節が検出されない場合を説明するために、新しい統計ベースの XAI メソッド、つまりカーネル密度推定と密度マップを提案します。
XAI メソッドのパフォーマンスは、データの品質とモデルのパフォーマンスを改善するためのフィードバックとして、定性的および定量的な比較の下で考慮されます。
最後に、甲状腺結節の画像に関するモデルの決定に関する XAI の説明に対する医師と患者の信頼を評価するために調査を行いました。
要約(オリジナル)
The ability to explain the prediction of deep learning models to end-users is an important feature to leverage the power of artificial intelligence (AI) for the medical decision-making process, which is usually considered non-transparent and challenging to comprehend. In this paper, we apply state-of-the-art eXplainable artificial intelligence (XAI) methods to explain the prediction of the black-box AI models in the thyroid nodule diagnosis application. We propose new statistic-based XAI methods, namely Kernel Density Estimation and Density map, to explain the case of no nodule detected. XAI methods’ performances are considered under a qualitative and quantitative comparison as feedback to improve the data quality and the model performance. Finally, we survey to assess doctors’ and patients’ trust in XAI explanations of the model’s decisions on thyroid nodule images.
arxiv情報
著者 | Truong Thanh Hung Nguyen,Van Binh Truong,Vo Thanh Khang Nguyen,Quoc Hung Cao,Quoc Khanh Nguyen |
発行日 | 2023-03-08 17:18:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google