An investigation into the causes of race bias in AI-based cine CMR segmentation

要約

人工知能 (AI) 手法は、シネ心臓磁気共鳴 (CMR) イメージングの自動セグメンテーションにますます使用されています。
ただし、これらの方法は人種バイアスの影響を受けることが示されています。つまり、AI モデルのトレーニングに使用されるデータの(不)バランスに応じて、人種ごとに異なるレベルのパフォーマンスを示します。
このペーパーでは、このバイアスの原因を調査し、効果的に軽減できるようにその根本原因を理解しようとします。
私たちは、英国バイオバンクの黒人および白人の被験者から取得した短軸シネ CMR 画像に対して一連の分類およびセグメンテーション実験を実行し、結果を理解するために AI 解釈可能性手法を適用します。
分類実験では、画像のみからは高い精度で人種を予測できるが、グランドトゥルースセグメンテーションからは精度が低いことがわかり、AIバイアスの原因となることが多い人種間の分布の変化は、ほとんどが画像ベースであることを示唆しています。
セグメンテーションベースではなく。
解釈可能性メソッドは、分類モデルにおける最も注目が皮下脂肪などの心臓以外の領域に集中していることを示しました。
心臓の周囲で画像を厳密にトリミングすると、分類精度がほぼ偶然のレベルまで低下しました。
同様に、人種は偏ったセグメンテーション モデルの潜在表現から予測でき、人種情報がモデル内にエンコードされていることを示唆しています。
心臓の周りの画像をしっかりとトリミングすると、セグメンテーション バイアスは減少しましたが、排除されませんでした。
また、観察されたバイアスに対する考えられる交絡因子の影響も調査します。

要約(オリジナル)

Artificial intelligence (AI) methods are being used increasingly for the automated segmentation of cine cardiac magnetic resonance (CMR) imaging. However, these methods have been shown to be subject to race bias, i.e. they exhibit different levels of performance for different races depending on the (im)balance of the data used to train the AI model. In this paper we investigate the source of this bias, seeking to understand its root cause(s) so that it can be effectively mitigated. We perform a series of classification and segmentation experiments on short-axis cine CMR images acquired from Black and White subjects from the UK Biobank and apply AI interpretability methods to understand the results. In the classification experiments, we found that race can be predicted with high accuracy from the images alone, but less accurately from ground truth segmentations, suggesting that the distributional shift between races, which is often the cause of AI bias, is mostly image-based rather than segmentation-based. The interpretability methods showed that most attention in the classification models was focused on non-heart regions, such as subcutaneous fat. Cropping the images tightly around the heart reduced classification accuracy to around chance level. Similarly, race can be predicted from the latent representations of a biased segmentation model, suggesting that race information is encoded in the model. Cropping images tightly around the heart reduced but did not eliminate segmentation bias. We also investigate the influence of possible confounders on the bias observed.

arxiv情報

著者 Tiarna Lee,Esther Puyol-Anton,Bram Ruijsink,Sebastien Roujol,Theodore Barfoot,Shaheim Ogbomo-Harmitt,Miaojing Shi,Andrew P. King
発行日 2024-08-05 13:40:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, eess.IV パーマリンク