From Explainable to Interpretable Deep Learning for Natural Language Processing in Healthcare: How Far from Reality?

要約

ディープラーニング(DL)は、ヘルスケア研究における自然言語処理(NLP)を大幅に強化した。しかし、DLベースのNLPは複雑さを増しており、信頼性の高い意思決定のためには、透明性のあるモデルの解釈可能性、少なくとも説明可能性が必要である。本研究では、ヘルスケアNLPにおける説明可能で解釈可能なDLの徹底的なスコープレビューを行う。XAIとIAIを区別するために、「説明可能で解釈可能な人工知能」(eXplainable and Interpretable Artificial Intelligence:XIAI)という用語を導入した。異なるモデルは、その機能性(モデルベース、入力ベース、出力ベース)とスコープ(ローカル、グローバル)に基づいてさらに分類される。我々の分析によると、アテンション・メカニズムが最も普及している新しいIAI手法である。IAIはXAIと区別され、利用が拡大している。特定された主な課題は、ほとんどのXIAIが「グローバルな」モデリングプロセスを探求していないこと、ベストプラクティスの欠如、体系的な評価とベンチマークの欠如である。1つの重要な機会は、個別化医療のためのマルチモーダルXIAIを強化するために注意メカニズムを使用することである。さらに、DLと因果論理を組み合わせることも有望である。我々の議論は、大規模言語モデル(LLM)やドメイン固有の小規模モデルにXIAIを統合することを奨励している。結論として、ヘルスケアにおけるXIAIの採用には、社内の専門知識が必要である。領域の専門家、エンドユーザー、政策立案者とのコラボレーションは、自然言語処理と医療タスクの間ですぐに使えるXIAI手法につながる。課題はあるものの、XIAI技術はヘルスケアにおける解釈可能なNLPアルゴリズムの貴重な基盤を提供する。

要約(オリジナル)

Deep learning (DL) has substantially enhanced natural language processing (NLP) in healthcare research. However, the increasing complexity of DL-based NLP necessitates transparent model interpretability, or at least explainability, for reliable decision-making. This work presents a thorough scoping review of explainable and interpretable DL in healthcare NLP. The term ‘eXplainable and Interpretable Artificial Intelligence’ (XIAI) is introduced to distinguish XAI from IAI. Different models are further categorized based on their functionality (model-, input-, output-based) and scope (local, global). Our analysis shows that attention mechanisms are the most prevalent emerging IAI technique. The use of IAI is growing, distinguishing it from XAI. The major challenges identified are that most XIAI does not explore ‘global’ modelling processes, the lack of best practices, and the lack of systematic evaluation and benchmarks. One important opportunity is to use attention mechanisms to enhance multi-modal XIAI for personalized medicine. Additionally, combining DL with causal logic holds promise. Our discussion encourages the integration of XIAI in Large Language Models (LLMs) and domain-specific smaller models. In conclusion, XIAI adoption in healthcare requires dedicated in-house expertise. Collaboration with domain experts, end-users, and policymakers can lead to ready-to-use XIAI methods across NLP and medical tasks. While challenges exist, XIAI techniques offer a valuable foundation for interpretable NLP algorithms in healthcare.

arxiv情報

著者 Guangming Huang,Yingya Li,Shoaib Jameel,Yunfei Long,Giorgos Papanastasiou
発行日 2024-05-03 16:20:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク