From Explainable to Interpretable Deep Learning for Natural Language Processing in Healthcare: How Far from Reality?

要約

ディープラーニング (DL) により、医療研究における自然言語処理 (NLP) が大幅に強化されました。
ただし、DL ベースの NLP の複雑さが増すにつれて、信頼性の高い意思決定のために、透過的なモデルの解釈可能性、または少なくとも説明可能性が必要になります。
この研究では、ヘルスケア NLP における説明可能かつ解釈可能な DL の徹底的な範囲レビューを示します。
「説明可能で解釈可能な人工知能」(XIAI) という用語は、XAI を IAI と区別するために導入されました。
さまざまなモデルは、機能 (モデルベース、入力ベース、出力ベース) とスコープ (ローカル、グローバル) に基づいてさらに分類されます。
私たちの分析では、注目メカニズムが最も普及している新しい IAI 手法であることがわかりました。
IAI の使用は増加しており、XAI とは区別されています。
特定された主な課題は、ほとんどの XIAI が「グローバル」モデリング プロセスを検討していないこと、ベスト プラクティスの欠如、体系的な評価とベンチマークの欠如です。
重要な機会の 1 つは、個別化医療のためのマルチモーダル XIAI を強化するためにアテンション メカニズムを使用することです。
さらに、DL と因果関係のロジックを組み合わせることも期待できます。
私たちの議論は、大規模言語モデル (LLM) およびドメイン固有の小規模モデルへの XIAI の統合を促進します。
結論として、XIAI を医療分野に導入するには、社内の専任の専門知識が必要です。
分野の専門家、エンドユーザー、政策立案者とのコラボレーションにより、NLP および医療タスク全体ですぐに使用できる XIAI メソッドを実現できます。
課題は存在しますが、XIAI 技術は医療における解釈可能な NLP アルゴリズムの貴重な基盤を提供します。

要約(オリジナル)

Deep learning (DL) has substantially enhanced natural language processing (NLP) in healthcare research. However, the increasing complexity of DL-based NLP necessitates transparent model interpretability, or at least explainability, for reliable decision-making. This work presents a thorough scoping review of explainable and interpretable DL in healthcare NLP. The term ‘eXplainable and Interpretable Artificial Intelligence’ (XIAI) is introduced to distinguish XAI from IAI. Different models are further categorized based on their functionality (model-, input-, output-based) and scope (local, global). Our analysis shows that attention mechanisms are the most prevalent emerging IAI technique. The use of IAI is growing, distinguishing it from XAI. The major challenges identified are that most XIAI does not explore ‘global’ modelling processes, the lack of best practices, and the lack of systematic evaluation and benchmarks. One important opportunity is to use attention mechanisms to enhance multi-modal XIAI for personalized medicine. Additionally, combining DL with causal logic holds promise. Our discussion encourages the integration of XIAI in Large Language Models (LLMs) and domain-specific smaller models. In conclusion, XIAI adoption in healthcare requires dedicated in-house expertise. Collaboration with domain experts, end-users, and policymakers can lead to ready-to-use XIAI methods across NLP and medical tasks. While challenges exist, XIAI techniques offer a valuable foundation for interpretable NLP algorithms in healthcare.

arxiv情報

著者 Guangming Huang,Yingya Li,Shoaib Jameel,Yunfei Long,Giorgos Papanastasiou
発行日 2024-10-16 14:14:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク