Enhancing Group Fairness in Online Settings Using Oblique Decision Forests

要約

機械学習システムのコンテキストでは、公平性、特にグループの公平性が重要な考慮事項です。
最も一般的に採用されるグループの公平性を高める手法は、トレーニング プロセス中に公平性の目標 (人口統計的パリティなど) とタスク固有の目標 (クロス エントロピーなど) の組み合わせに依存する処理中手法です。
ただし、データがオンライン形式で (一度に 1 インスタンスずつ) 受信される場合、そのような公平性の目標を最適化するにはいくつかの課題が生じます。
特に、グループの公平性の目標は、さまざまな人口統計グループにわたる予測の期待を使用して定義されます。
オンライン設定では、アルゴリズムが一度に 1 つのインスタンスにアクセスできるため、グループの公平性目標を推定するには、追加のストレージと、タイム ステップごとにタスク固有の目標よりも大幅に多くの計算 (前方/後方パスなど) が必要になります。
この論文では、オンライン環境で公正な意思決定を行うために、斜めの決定木のアンサンブルである Aranyani を提案します。
Aranyani の階層ツリー構造により、パラメーターの分離が可能になり、以前の決定の集計統計を使用して公平性勾配を効率的に計算できるため、追加のストレージや前方/後方パスの必要がなくなります。
また、アランヤニを訓練し、そのいくつかの特性を理論的に分析するための効率的なフレームワークも紹介します。
私たちは、公的に利用可能な 5 つのベンチマーク (視覚および言語データセットを含む) に対して実証的評価を実施し、Aranyani がベースラインのアプローチと比較して、より優れた精度と公平性のトレードオフを達成していることを示しました。

要約(オリジナル)

Fairness, especially group fairness, is an important consideration in the context of machine learning systems. The most commonly adopted group fairness-enhancing techniques are in-processing methods that rely on a mixture of a fairness objective (e.g., demographic parity) and a task-specific objective (e.g., cross-entropy) during the training process. However, when data arrives in an online fashion — one instance at a time — optimizing such fairness objectives poses several challenges. In particular, group fairness objectives are defined using expectations of predictions across different demographic groups. In the online setting, where the algorithm has access to a single instance at a time, estimating the group fairness objective requires additional storage and significantly more computation (e.g., forward/backward passes) than the task-specific objective at every time step. In this paper, we propose Aranyani, an ensemble of oblique decision trees, to make fair decisions in online settings. The hierarchical tree structure of Aranyani enables parameter isolation and allows us to efficiently compute the fairness gradients using aggregate statistics of previous decisions, eliminating the need for additional storage and forward/backward passes. We also present an efficient framework to train Aranyani and theoretically analyze several of its properties. We conduct empirical evaluations on 5 publicly available benchmarks (including vision and language datasets) to show that Aranyani achieves a better accuracy-fairness trade-off compared to baseline approaches.

arxiv情報

著者 Somnath Basu Roy Chowdhury,Nicholas Monath,Ahmad Beirami,Rahul Kidambi,Avinava Dubey,Amr Ahmed,Snigdha Chaturvedi
発行日 2023-10-17 17:10:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク