要約
データ駆動型医学の時代には、信頼できる効果的な患者ケアを実現するために、臨床的意思決定支援システムを説明する際に、説明可能で倫理的に管理された人工知能を含めることが最も重要です。
この論文の焦点は、モジュラーエージェントを使用して実験室の結果、バイタルサイン、および臨床的コンテキストを分析し、これらの結果を統合して予測を促進し、結果を検証する臨床的意思決定サポートのためのマルチエージェントシステムの新しいアーキテクチャにあります。
Lab-Analysis固有のエージェント、Vitalsのみの通訳者、およびコンテキスト推論者を実行し、予測モジュールと検証エージェントを実行するためのEICUデータベースでの実装について説明します。
すべてがビジネスロジックの透明な実装であり、自律性、公平性、説明責任などの倫理的AIガバナンスの原則に影響されます。
このエージェントベースのフレームワークは、解釈性と精度を改善するだけでなく、集中治療環境でのAIアシスト決定への信頼を強化することでも目に見える結果を提供します。
要約(オリジナル)
In the age of data-driven medicine, it is paramount to include explainable and ethically managed artificial intelligence in explaining clinical decision support systems to achieve trustworthy and effective patient care. The focus of this paper is on a new architecture of a multi-agent system for clinical decision support that uses modular agents to analyze laboratory results, vital signs, and the clinical context and then integrates these results to drive predictions and validate outcomes. We describe our implementation with the eICU database to run lab-analysis-specific agents, vitals-only interpreters, and contextual reasoners and then run the prediction module and a validation agent. Everything is a transparent implementation of business logic, influenced by the principles of ethical AI governance such as Autonomy, Fairness, and Accountability. It provides visible results that this agent-based framework not only improves on interpretability and accuracy but also on reinforcing trust in AI-assisted decisions in an intensive care setting.
arxiv情報
著者 | Ying-Jung Chen,Chi-Sheng Chen,Ahmad Albarqawi |
発行日 | 2025-04-10 15:38:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google