The Impact of Differential Feature Under-reporting on Algorithmic Fairness

要約

公共部門における予測リスクモデルは、公共サービスに大きく依存する部分集団について、より完全な行政データを用いて開発されるのが一般的である。例えば、米国では、メディケイドやメディケアの支援を受けている個人については、医療利用に関する情報が政府機関から日常的に入手可能であるが、民間の被保険者についてはそうではない。公共部門のアルゴリズムに対する批評では、アルゴリズムによる意思決定における格差の要因として、このような特徴量の過少報告が挙げられている。しかし、このようなデータの偏りは、技術的な観点からはまだ十分に研究されていない。先行研究では、加法的な特徴ノイズや明らかに欠落としてマークされた特徴の公平性への影響について検討されてきたが、データの欠落が指標として存在しない場合の設定(すなわち、差分的な特徴の過少報告)については、研究上の注意が払われていない。本研究では、解析的に扱いやすい特徴量過少報告のモデルを提示し、このモデルを用いて、この種のデータの偏りがアルゴリズムの公平性に与える影響を特徴付ける。また、標準的な欠損データ解析手法が、このような設定においていかにバイアスを軽減できないかを示し、特徴量過少報告に特化した新しい手法を提案する。その結果、実世界のデータ設定において、過少報告は一般的に格差を拡大することが示された。提案する解決方法は、不公平の増加を緩和することに成功する。

要約(オリジナル)

Predictive risk models in the public sector are commonly developed using administrative data that is more complete for subpopulations that more greatly rely on public services. In the United States, for instance, information on health care utilization is routinely available to government agencies for individuals supported by Medicaid and Medicare, but not for the privately insured. Critiques of public sector algorithms have identified such differential feature under-reporting as a driver of disparities in algorithmic decision-making. Yet this form of data bias remains understudied from a technical viewpoint. While prior work has examined the fairness impacts of additive feature noise and features that are clearly marked as missing, the setting of data missingness absent indicators (i.e. differential feature under-reporting) has been lacking in research attention. In this work, we present an analytically tractable model of differential feature under-reporting which we then use to characterize the impact of this kind of data bias on algorithmic fairness. We demonstrate how standard missing data methods typically fail to mitigate bias in this setting, and propose a new set of methods specifically tailored to differential feature under-reporting. Our results show that, in real world data settings, under-reporting typically leads to increasing disparities. The proposed solution methods show success in mitigating increases in unfairness.

arxiv情報

著者 Nil-Jana Akpinar,Zachary C. Lipton,Alexandra Chouldechova
発行日 2024-05-03 14:58:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CY, cs.LG, stat.ML パーマリンク