Detecting algorithmic bias in medical AI-models

要約

機械学習および人工知能ベースの医療意思決定支援システムの普及が進むにつれて、これらのシステムが公正かつ公平な方法で患者の転帰を確実に提供することも同様に重要です。
この論文では、医療 AI 意思決定支援システムにおけるアルゴリズムのバイアス領域を検出するための革新的なフレームワークを紹介します。
私たちのアプローチでは、分類回帰ツリー (CART) アルゴリズムを採用することで、医療 AI モデル、特に敗血症予測のコンテキストにおける潜在的なバイアスを効率的に特定します。
一連の合成データ実験を実施することで方法論を検証し、制御された設定におけるバイアス領域を正確に推定する能力を示します。
この概念の有効性は、ジョージア州アトランタにあるグレイディ記念病院の電子医療記録を使用した実験によってさらに検証されています。
これらのテストは、臨床環境における当社の戦略の実際的な実装を実証し、AI ベースの医療決定における公平性と公平性を保証するための重要な手段として機能することができます。

要約(オリジナル)

With the growing prevalence of machine learning and artificial intelligence-based medical decision support systems, it is equally important to ensure that these systems provide patient outcomes in a fair and equitable fashion. This paper presents an innovative framework for detecting areas of algorithmic bias in medical-AI decision support systems. Our approach efficiently identifies potential biases in medical-AI models, specifically in the context of sepsis prediction, by employing the Classification and Regression Trees (CART) algorithm. We verify our methodology by conducting a series of synthetic data experiments, showcasing its ability to estimate areas of bias in controlled settings precisely. The effectiveness of the concept is further validated by experiments using electronic medical records from Grady Memorial Hospital in Atlanta, Georgia. These tests demonstrate the practical implementation of our strategy in a clinical environment, where it can function as a vital instrument for guaranteeing fairness and equity in AI-based medical decisions.

arxiv情報

著者 Jeffrey Smith,Andre Holder,Rishikesan Kamaleswaran,Yao Xie
発行日 2024-02-29 13:30:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG, stat.AP, stat.ML パーマリンク