The challenge of uncertainty quantification of large language models in medicine

要約

この研究では、医療用途の大規模な言語モデル(LLMS)の不確実性の定量化を調査し、技術的な革新と哲学的意味の両方を強調しています。
LLMが臨床的意思決定に不可欠になるにつれて、信頼性が高く、安全で、倫理的なAIアシストヘルスケアを確保するために、不確実性を正確に伝えることが重要です。
私たちの研究は、不確実性を障壁としてではなく、AIデザインへの動的で反射的なアプローチを招く知識の重要な部分としてです。
ベイジアン推論、深いアンサンブル、モンテカルロのドロップアウトなどの高度な確率的方法を、予測とセマンティックのエントロピーを計算する言語分析と統合することにより、認識論的およびaleatoricの両方の不合理を管理する包括的なフレームワークを提案します。
このフレームワークには、独自のAPIの制限、より良いコンテキストのためのマルチソースデータ統合、および継続的およびメタ学習による動的キャリブレーションに対処するための代理モデリングが組み込まれています。
説明可能性は、ユーザーの信頼と臨床的解釈可能性をサポートするために、不確実性マップと自信指標を通じて組み込まれています。
私たちのアプローチは、責任ある反射的なAI原則と一致する透明で倫理的な意思決定をサポートしています。
哲学的には、医学知識の固有の暫定性を認識して、絶対的な予測可能性を求めて努力するのではなく、制御された曖昧さを受け入れることを提唱しています。

要約(オリジナル)

This study investigates uncertainty quantification in large language models (LLMs) for medical applications, emphasizing both technical innovations and philosophical implications. As LLMs become integral to clinical decision-making, accurately communicating uncertainty is crucial for ensuring reliable, safe, and ethical AI-assisted healthcare. Our research frames uncertainty not as a barrier but as an essential part of knowledge that invites a dynamic and reflective approach to AI design. By integrating advanced probabilistic methods such as Bayesian inference, deep ensembles, and Monte Carlo dropout with linguistic analysis that computes predictive and semantic entropy, we propose a comprehensive framework that manages both epistemic and aleatoric uncertainties. The framework incorporates surrogate modeling to address limitations of proprietary APIs, multi-source data integration for better context, and dynamic calibration via continual and meta-learning. Explainability is embedded through uncertainty maps and confidence metrics to support user trust and clinical interpretability. Our approach supports transparent and ethical decision-making aligned with Responsible and Reflective AI principles. Philosophically, we advocate accepting controlled ambiguity instead of striving for absolute predictability, recognizing the inherent provisionality of medical knowledge.

arxiv情報

著者 Zahra Atf,Seyed Amir Ahmad Safavi-Naini,Peter R. Lewis,Aref Mahjoubfar,Nariman Naderi,Thomas R. Savage,Ali Soroush
発行日 2025-04-07 17:24:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク