Adapting Static Fairness to Sequential Decision-Making: Bias Mitigation Strategies towards Equal Long-term Benefit Rate

要約

機械学習モデルによる決定は永続的な影響を与える可能性があるため、長期的な公平性が重要な考慮事項となります。
長期的な影響を無視し、静的な設定で公平性基準を直接適用すると、時間の経過とともにバイアスが実際に悪化する可能性があることが観察されています。
逐次的な意思決定におけるバイアスに対処するために、長期均等給付率 (ELBERT) と呼ばれる長期公平性の概念を導入します。
この概念はマルコフ意思決定プロセス (MDP) にシームレスに統合され、長期的な公平性に対するアクションの将来の影響を考慮し、公平な逐次意思決定の問題に対する統一フレームワークを提供します。
ELBERT は、これまでの長期的な公平性の概念に見られた時間的差別の問題に効果的に対処します。
さらに、長期給付率の政策勾配が分析的に標準的な政策勾配に単純化できることを示します。
この単純化により、従来のポリシー最適化手法がバイアスを削減するために実行可能となり、バイアス緩和アプローチ ELBERT-PO につながります。
さまざまな多様な逐次的意思決定環境にわたる広範な実験により、ELBERT-PO が高い有用性を維持しながらバイアスを大幅に軽減することが一貫して明らかになりました。
コードは https://github.com/umd-huang-lab/ELBERT で入手できます。

要約(オリジナル)

Decisions made by machine learning models can have lasting impacts, making long-term fairness a critical consideration. It has been observed that ignoring the long-term effect and directly applying fairness criterion in static settings can actually worsen bias over time. To address biases in sequential decision-making, we introduce a long-term fairness concept named Equal Long-term Benefit Rate (ELBERT). This concept is seamlessly integrated into a Markov Decision Process (MDP) to consider the future effects of actions on long-term fairness, thus providing a unified framework for fair sequential decision-making problems. ELBERT effectively addresses the temporal discrimination issues found in previous long-term fairness notions. Additionally, we demonstrate that the policy gradient of Long-term Benefit Rate can be analytically simplified to standard policy gradients. This simplification makes conventional policy optimization methods viable for reducing bias, leading to our bias mitigation approach ELBERT-PO. Extensive experiments across various diverse sequential decision-making environments consistently reveal that ELBERT-PO significantly diminishes bias while maintaining high utility. Code is available at https://github.com/umd-huang-lab/ELBERT.

arxiv情報

著者 Yuancheng Xu,Chenghao Deng,Yanchao Sun,Ruijie Zheng,Xiyao Wang,Jieyu Zhao,Furong Huang
発行日 2024-05-28 15:55:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG パーマリンク