要約
機械学習アルゴリズムがトレーニング データに埋め込まれたバイアスにより健康格差を増幅させるリスクについて懸念を表明する報告が増えています。
セイエド・カランタリら。
3 つの胸部 X 線データセットでトレーニングされたモデルでは、「所見なし」ラベル (病気がないことを示す) のサブグループ間で偽陽性率 (FPR) に差が生じることがわかりました。
このモデルは、歴史的に十分なサービスが受けられていないことが知られているサブグループに対して一貫して高い FPR をもたらしており、この研究では、モデルが体系的な過少診断を示し、潜在的にはそれを増幅させる可能性さえあると結論付けています。
私たちは、この研究の実験設定はアルゴリズムによる診断不足を研究するには不十分であると主張します。
データセットの偏りの範囲と性質に関する具体的な知識 (または仮定) がないと、モデルの偏りを調査することは困難です。
重要なのは、(ランダムな分割による) トレーニング データと同じ偏りを示すテスト データの使用が、報告された差異の解釈を非常に複雑にすることです。
要約(オリジナル)
An increasing number of reports raise concerns about the risk that machine learning algorithms could amplify health disparities due to biases embedded in the training data. Seyyed-Kalantari et al. find that models trained on three chest X-ray datasets yield disparities in false-positive rates (FPR) across subgroups on the ‘no-finding’ label (indicating the absence of disease). The models consistently yield higher FPR on subgroups known to be historically underserved, and the study concludes that the models exhibit and potentially even amplify systematic underdiagnosis. We argue that the experimental setup in the study is insufficient to study algorithmic underdiagnosis. In the absence of specific knowledge (or assumptions) about the extent and nature of the dataset bias, it is difficult to investigate model bias. Importantly, their use of test data exhibiting the same bias as the training data (due to random splitting) severely complicates the interpretation of the reported disparities.
arxiv情報
| 著者 | Mélanie Bernhardt,Charles Jones,Ben Glocker |
| 発行日 | 2023-07-06 06:01:08+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google