Long-Term Fairness with Unknown Dynamics

要約

タイトル:未知のダイナミクスとの長期的な公平性
要約:
– 機械学習は社会的不平等を短期的に強化する可能性があるが、公平な結果を動的に求めるためにも使用できる。
– 本論文では、オンライン強化学習の文脈で長期的な公平性を形式化する。
– この定式化には、静的な公平性の定式化に組み込むことができない、人口の状態に固有の公正さを推進するダイナミカルな制御目的を含めることができる。
– このフレーミングにより、アルゴリズムが未知のダイナミクスに適応し、短期的なインセンティブを犠牲にして、分類器-人口システムをより望ましい均衡に向かわせることができることを示す。
– 提案された設定では、オンライン学習の最近の研究を適応したアルゴリズムを開発し、累積損失と公平性の累積違反の同時確率バウンドを達成することを証明する。
– 基準として、短視眼的な分類器の繰り返し再トレーニングと、安全性保証がない深層強化学習アルゴリズムと比較する。実験は進化ゲーム理論に基づく人口をモデル化し、実世界のデータセットを統合している。

要約(オリジナル)

While machine learning can myopically reinforce social inequalities, it may also be used to dynamically seek equitable outcomes. In this paper, we formalize long-term fairness in the context of online reinforcement learning. This formulation can accommodate dynamical control objectives, such as driving equity inherent in the state of a population, that cannot be incorporated into static formulations of fairness. We demonstrate that this framing allows an algorithm to adapt to unknown dynamics by sacrificing short-term incentives to drive a classifier-population system towards more desirable equilibria. For the proposed setting, we develop an algorithm that adapts recent work in online learning. We prove that this algorithm achieves simultaneous probabilistic bounds on cumulative loss and cumulative violations of fairness (as statistical regularities between demographic groups). We compare our proposed algorithm to the repeated retraining of myopic classifiers, as a baseline, and to a deep reinforcement learning algorithm that lacks safety guarantees. Our experiments model human populations according to evolutionary game theory and integrate real-world datasets.

arxiv情報

著者 Tongxin Yin,Reilly Raab,Mingyan Liu,Yang Liu
発行日 2023-04-19 01:13:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク