Demographic Bias of Expert-Level Vision-Language Foundation Models in Medical Imaging

要約

人工知能 (AI) の進歩により、医療画像アプリケーションにおいて専門家レベルのパフォーマンスが達成されました。
特に、自己監視型視覚言語基礎モデルは、明示的なトレーニング アノテーションに依存せずに、広範囲の病状を検出できます。
ただし、これらの AI モデルが人間の偏見を反映または増幅して、女性や黒人患者などの歴史的に疎外されてきたグループに不利益を与えないようにすることが重要です。
このような偏見が現れると、特定の患者サブグループに対する必須の医療が体系的に遅れてしまう可能性があります。
この研究では、世界的に調達された 5 つのデータセットにわたる胸部 X 線診断における最先端の視覚言語基礎モデルのアルゴリズムの公平性を調査します。
私たちの調査結果は、委員会認定の放射線科医と比較して、これらの基礎モデルは周縁化されたグループを一貫して過少診断しており、黒人女性患者などの交差するサブグループではさらに高い診断率が見られることを明らかにしています。
このような人口統計上の偏りは、幅広い病状や人口統計上の属性にわたって存在します。
モデルの埋め込みをさらに分析すると、人口統計情報の重要なエンコードが明らかになります。
このような偏りのある AI システムを医療画像処理に導入すると、既存の医療格差が拡大し、公平な医療アクセスに潜在的な課題が生じ、その臨床応用について倫理的な問題が生じる可能性があります。

要約(オリジナル)

Advances in artificial intelligence (AI) have achieved expert-level performance in medical imaging applications. Notably, self-supervised vision-language foundation models can detect a broad spectrum of pathologies without relying on explicit training annotations. However, it is crucial to ensure that these AI models do not mirror or amplify human biases, thereby disadvantaging historically marginalized groups such as females or Black patients. The manifestation of such biases could systematically delay essential medical care for certain patient subgroups. In this study, we investigate the algorithmic fairness of state-of-the-art vision-language foundation models in chest X-ray diagnosis across five globally-sourced datasets. Our findings reveal that compared to board-certified radiologists, these foundation models consistently underdiagnose marginalized groups, with even higher rates seen in intersectional subgroups, such as Black female patients. Such demographic biases present over a wide range of pathologies and demographic attributes. Further analysis of the model embedding uncovers its significant encoding of demographic information. Deploying AI systems with these biases in medical imaging can intensify pre-existing care disparities, posing potential challenges to equitable healthcare access and raising ethical questions about their clinical application.

arxiv情報

著者 Yuzhe Yang,Yujia Liu,Xin Liu,Avanti Gulhane,Domenico Mastrodicasa,Wei Wu,Edward J Wang,Dushyant W Sahani,Shwetak Patel
発行日 2024-02-22 18:59:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.CY, cs.LG パーマリンク