要約
医療モデルの公平性は人々の幸福と生活にとって極めて重要であるため、人工知能モデルの公平性は近年、特に医療の分野で非常に注目を集めています。
公平性学習研究を促進するには、高品質の医療公平性データセットが必要です。
既存の医療公平性データセットはすべて分類タスク用であり、医療セグメンテーションに利用できる公平性データセットはありません。一方、医療セグメンテーションは分類と同様に重要な臨床タスクであり、臨床医がすぐに評価できる臓器異常に関する詳細な空間情報を提供できます。
この論文では、10,000 の被験者サンプルを含む Harvard-FairSeg と呼ばれる医療セグメンテーション用の最初の公平性データセットを提案します。
さらに、セグメント何でもモデル (SAM) を使用して、各アイデンティティ グループの上限誤差限界で損失関数を再重み付けする公平な誤差限界スケーリング アプローチを提案します。
各アイデンティティ グループでトレーニング エラーが多い困難なケースに明示的に取り組むことで、セグメンテーション パフォーマンスの公平性を改善できると予想しています。
公平な比較を容易にするために、当社では、株式スケールのダイス係数などの新しい株式スケールのセグメンテーション パフォーマンス メトリックを利用して、公平性の観点からセグメンテーション メトリックを比較します。
包括的な実験を通じて、私たちの公正誤差制限スケーリングアプローチが、最先端の公平性学習モデルよりも優れた、または同等の公平性パフォーマンスを備えていることを実証しました。
データセットとコードは、https://ophai.hms.harvard.edu/harvard-fairseg10k から公開されています。
要約(オリジナル)
Fairness in artificial intelligence models has gained significantly more attention in recent years, especially in the area of medicine, as fairness in medical models is critical to people’s well-being and lives. High-quality medical fairness datasets are needed to promote fairness learning research. Existing medical fairness datasets are all for classification tasks, and no fairness datasets are available for medical segmentation, while medical segmentation is an equally important clinical task as classifications, which can provide detailed spatial information on organ abnormalities ready to be assessed by clinicians. In this paper, we propose the first fairness dataset for medical segmentation named Harvard-FairSeg with 10,000 subject samples. In addition, we propose a fair error-bound scaling approach to reweight the loss function with the upper error-bound in each identity group, using the segment anything model (SAM). We anticipate that the segmentation performance equity can be improved by explicitly tackling the hard cases with high training errors in each identity group. To facilitate fair comparisons, we utilize a novel equity-scaled segmentation performance metric to compare segmentation metrics in the context of fairness, such as the equity-scaled Dice coefficient. Through comprehensive experiments, we demonstrate that our fair error-bound scaling approach either has superior or comparable fairness performance to the state-of-the-art fairness learning models. The dataset and code are publicly accessible via https://ophai.hms.harvard.edu/harvard-fairseg10k.
arxiv情報
著者 | Yu Tian,Min Shi,Yan Luo,Ava Kouhana,Tobias Elze,Mengyu Wang |
発行日 | 2024-02-27 18:38:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google