No Fair Lunch: A Causal Perspective on Dataset Bias in Machine Learning for Medical Imaging

要約

臨床上の意思決定において機械学習手法が重要視されるようになるにつれて、公平性に関する懸念への対処がますます緊急になっています。
アルゴリズムのバイアスの検出と改善に多大な労力が費やされているにもかかわらず、今日の方法には欠陥があり、潜在的に有害な結果をもたらします。
私たちの因果関係の観点は、アルゴリズムのバイアスに新たな光を当て、データセットのバイアスのさまざまなソースが区別できないように見えながら、実質的に異なる軽減戦略が必要であることを浮き彫りにします。
有病率、提示、および注釈の差異に起因する因果バイアス メカニズムの 3 つのファミリーを紹介します。
私たちの因果関係分析は、現在の緩和手法がシナリオの限られた、多くの場合非現実的なサブセットのみにどのように取り組んでいるかを強調しています。
私たちは、医療画像における公平性を推論するための実践的な 3 ステップのフレームワークを提供し、安全で公平な AI 予測モデルの開発をサポートします。

要約(オリジナル)

As machine learning methods gain prominence within clinical decision-making, addressing fairness concerns becomes increasingly urgent. Despite considerable work dedicated to detecting and ameliorating algorithmic bias, today’s methods are deficient with potentially harmful consequences. Our causal perspective sheds new light on algorithmic bias, highlighting how different sources of dataset bias may appear indistinguishable yet require substantially different mitigation strategies. We introduce three families of causal bias mechanisms stemming from disparities in prevalence, presentation, and annotation. Our causal analysis underscores how current mitigation methods tackle only a narrow and often unrealistic subset of scenarios. We provide a practical three-step framework for reasoning about fairness in medical imaging, supporting the development of safe and equitable AI prediction models.

arxiv情報

著者 Charles Jones,Daniel C. Castro,Fabio De Sousa Ribeiro,Ozan Oktay,Melissa McCradden,Ben Glocker
発行日 2023-07-31 09:48:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク