Fairness-Aware Interpretable Modeling (FAIM) for Trustworthy Machine Learning in Healthcare

要約

医療など一か八かの分野での機械学習の統合がエスカレートしているため、モデルの公平性について大きな懸念が生じています。
私たちは、パフォーマンスを損なうことなくモデルの公平性を向上させる、解釈可能なフレームワークであるフェアネス認識解釈型モデリング (FAIM) を提案します。これは、一連の高性能モデルから「より公平な」モデルを識別するための対話型インターフェイスを特徴とし、データ駆動型の統合を促進します。
状況に応じた公平性を高めるための証拠と臨床専門知識。
私たちは、MIMIC-IV-ED と SGH-ED という 2 つの現実世界のデータベースを使用して入院を予測することにより、性別と人種の偏見を軽減する FAIM の価値を実証しました。
両方のデータセットで、FAIM モデルが満足のいく識別パフォーマンスを示しただけでなく、十分に確立された公平性指標によって測定されたバイアスを大幅に軽減し、一般的に使用されるバイアス軽減方法を上回るパフォーマンスを示したことを示します。
私たちのアプローチは、パフォーマンスを犠牲にすることなく公平性を向上させる実現可能性を実証し、各分野の専門家の関与を促すモデリング モードを提供し、カスタマイズされた AI の公平性に向けた学際的な取り組みを促進します。

要約(オリジナル)

The escalating integration of machine learning in high-stakes fields such as healthcare raises substantial concerns about model fairness. We propose an interpretable framework – Fairness-Aware Interpretable Modeling (FAIM), to improve model fairness without compromising performance, featuring an interactive interface to identify a ‘fairer’ model from a set of high-performing models and promoting the integration of data-driven evidence and clinical expertise to enhance contextualized fairness. We demonstrated FAIM’s value in reducing sex and race biases by predicting hospital admission with two real-world databases, MIMIC-IV-ED and SGH-ED. We show that for both datasets, FAIM models not only exhibited satisfactory discriminatory performance but also significantly mitigated biases as measured by well-established fairness metrics, outperforming commonly used bias-mitigation methods. Our approach demonstrates the feasibility of improving fairness without sacrificing performance and provides an a modeling mode that invites domain experts to engage, fostering a multidisciplinary effort toward tailored AI fairness.

arxiv情報

著者 Mingxuan Liu,Yilin Ning,Yuhe Ke,Yuqing Shang,Bibhas Chakraborty,Marcus Eng Hock Ong,Roger Vaughan,Nan Liu
発行日 2024-03-08 11:51:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク