要約
医療における機械学習の利用が増えるにつれ、医療の成果を向上させる可能性が高まっています。
ただし、これは、年齢、性別、人種などの要因に基づいて特定の人口統計グループに悪影響を与える可能性のあるデータとモデルの設計における偏りを永続させるリスクももたらします。
この研究では、医療現場の公平性を確保しながら、データとモデルのバイアスを特定して軽減するための、ソフトウェアエンジニアリングの原則に基づいた人工知能フレームワークを提案しています。
データの体系的なバイアスがモデル予測のバイアスの増幅にどのようにつながるかを実証するケーススタディが紹介され、そのようなバイアスを防ぐための機械学習手法が提案されています。
今後の研究は、提案された ML フレームワークを実際の臨床現場でテストおよび検証し、健康の公平性の促進に対するその影響を評価することを目的としています。
要約(オリジナル)
With the growing utilization of machine learning in healthcare, there is increasing potential to enhance healthcare outcomes. However, this also brings the risk of perpetuating biases in data and model design that can harm certain demographic groups based on factors such as age, gender, and race. This study proposes an artificial intelligence framework, grounded in software engineering principles, for identifying and mitigating biases in data and models while ensuring fairness in healthcare settings. A case study is presented to demonstrate how systematic biases in data can lead to amplified biases in model predictions, and machine learning methods are suggested to prevent such biases. Future research aims to test and validate the proposed ML framework in real-world clinical settings to evaluate its impact on promoting health equity.
arxiv情報
著者 | Shaina Raza,Parisa Osivand Pour,Syed Raza Bashir |
発行日 | 2023-08-14 14:47:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google