要約
医療画像処理では、日常業務を自動化するために人工知能 (AI) の使用が増えています。
ただし、これらのアルゴリズムはバイアスを示し、悪化させる可能性があり、保護されたグループ間のパフォーマンスの相違につながります。
私たちは、トレーニング データセットにおける被験者の性別と人種の不均衡が AI ベースのシネ心臓磁気共鳴画像セグメンテーションにどのように影響するかについて、モデル選択の影響を調査します。
3 つの畳み込みニューラル ネットワーク ベースのモデルと 1 つのビジョン トランスフォーマー モデルを評価します。
4 つのモデルのうち 3 つには重大な性的偏見があり、すべてのモデルには人種的偏見が見られます。
ただし、バイアスの重大度と性質はモデル間で異なり、医用画像タスク用に公平な AI ベースのセグメンテーション モデルをトレーニングしようとする場合、モデル選択の重要性が強調されます。
要約(オリジナル)
In medical imaging, artificial intelligence (AI) is increasingly being used to automate routine tasks. However, these algorithms can exhibit and exacerbate biases which lead to disparate performances between protected groups. We investigate the impact of model choice on how imbalances in subject sex and race in training datasets affect AI-based cine cardiac magnetic resonance image segmentation. We evaluate three convolutional neural network-based models and one vision transformer model. We find significant sex bias in three of the four models and racial bias in all of the models. However, the severity and nature of the bias varies between the models, highlighting the importance of model choice when attempting to train fair AI-based segmentation models for medical imaging tasks.
arxiv情報
著者 | Tiarna Lee,Esther Puyol-Antón,Bram Ruijsink,Keana Aitcheson,Miaojing Shi,Andrew P. King |
発行日 | 2023-08-25 14:55:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google