Improving the Fairness of Deep-Learning, Short-term Crime Prediction with Under-reporting-aware Models

要約

ディープラーニング犯罪予測ツールは、過去の犯罪データと追加の行動データセットを使用して、将来の犯罪を予測します。
それにもかかわらず、これらのツールは、少数派の人種や民族グループ間で不公平な予測を受けるという問題があることがわかっています。
この不公平性に対処する現在のアプローチでは、一般に、ドメイン知識に基づいて犯罪数に補正を適用することでトレーニング データセットの偏りを軽減する前処理手法、または精度と公平性の両方を最適化するために公平性正則化装置として実装される処理中手法のいずれかを提案しています。
この論文では、これら 2 つのアプローチの力を組み合わせて予測の公平性を向上させる、新しい深層学習アーキテクチャを提案します。
我々の結果は、提案されたモデルは、精度は低下するものの、処理中のバイアス除去アプローチを使用したモデルやいかなるタイプのバイアス補正も行わないモデルと比較して、犯罪予測の公平性を向上させることを示しています。

要約(オリジナル)

Deep learning crime predictive tools use past crime data and additional behavioral datasets to forecast future crimes. Nevertheless, these tools have been shown to suffer from unfair predictions across minority racial and ethnic groups. Current approaches to address this unfairness generally propose either pre-processing methods that mitigate the bias in the training datasets by applying corrections to crime counts based on domain knowledge or in-processing methods that are implemented as fairness regularizers to optimize for both accuracy and fairness. In this paper, we propose a novel deep learning architecture that combines the power of these two approaches to increase prediction fairness. Our results show that the proposed model improves the fairness of crime predictions when compared to models with in-processing de-biasing approaches and with models without any type of bias correction, albeit at the cost of reducing accuracy.

arxiv情報

著者 Jiahui Wu,Vanessa Frias-Martinez
発行日 2024-06-13 17:53:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク