DemOpts: Fairness corrections in COVID-19 case prediction models

要約

新型コロナウイルス感染症(COVID-19)予測モデルは、リソースの割り当てや介入の決定(病院のベッド数や自宅待機命令など)に関する意思決定に情報を提供するために使用されてきました。
最先端のディープラーニング モデルでは、モビリティや社会人口統計データなどのマルチモーダル データを使用して、新型コロナウイルス感染症の症例予測モデルを強化することがよくあります。
それにもかかわらず、関連する研究により、新型コロナウイルス感染症の症例における過小報告の偏りや、特定の少数人種および民族グループの移動データにおけるサンプリングの偏りが明らかになり、人種ラベルに沿った新型コロナウイルス感染症の予測の公平性に影響を与える可能性がある。
この論文では、最先端の深層学習モデルの出力平均予測誤差が人種や民族によって大きく異なることを示します。
そしてそれはひいては不公平な政策決定を助長する可能性がある。
また、潜在的にバイアスがかかっているデータセットでトレーニングされた深層学習ベースの予測モデルの公平性を高めるための、新しいバイアス除去手法 DemOpts も提案します。
私たちの結果は、DemOpts が他の最先端のバイアス除去アプローチよりも優れた誤差パリティを達成できるため、より多くの人種および民族グループ間の平均誤差分布の差を効果的に低減できることを示しています。

要約(オリジナル)

COVID-19 forecasting models have been used to inform decision making around resource allocation and intervention decisions e.g., hospital beds or stay-at-home orders. State of the art deep learning models often use multimodal data such as mobility or socio-demographic data to enhance COVID-19 case prediction models. Nevertheless, related work has revealed under-reporting bias in COVID-19 cases as well as sampling bias in mobility data for certain minority racial and ethnic groups, which could in turn affect the fairness of the COVID-19 predictions along race labels. In this paper, we show that state of the art deep learning models output mean prediction errors that are significantly different across racial and ethnic groups; and which could, in turn, support unfair policy decisions. We also propose a novel de-biasing method, DemOpts, to increase the fairness of deep learning based forecasting models trained on potentially biased datasets. Our results show that DemOpts can achieve better error parity that other state of the art de-biasing approaches, thus effectively reducing the differences in the mean error distributions across more racial and ethnic groups.

arxiv情報

著者 Naman Awasthi,Saad Abrar,Daniel Smolyak,Vanessa Frias-Martinez
発行日 2024-05-20 14:34:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG パーマリンク