要約
アルゴリズムによる意思決定は多くの領域に深く浸透していますが、機械学習モデルのバイアスは依然として差別的な結果を生み出し、特権のないグループに害を及ぼす可能性があります。
公平な分類を達成することは本質的に困難であり、予測パフォーマンスと倫理的考慮事項との間の慎重なバランスが必要です。
私たちは、Tree Test Time Simulation (TTTS) 法にヒントを得た新しい後処理バイアス軽減法である FairTTTS を紹介します。
TTTS は元々、確率的な意思決定パス調整を通じて敵対的な入力に対する精度と堅牢性を強化するために開発されたもので、FairTTTS の基盤として機能します。
この精度向上技術を基盤とすることで、FairTTTS はバイアスを軽減し、予測パフォーマンスを向上させます。
FairTTTS は、距離ベースのヒューリスティックを使用して保護された属性ノードでの決定を調整し、特権のないサンプルの公平性を確保します。
この公平性を重視した調整は後処理ステップとして行われるため、FairTTTS を再トレーニングせずに事前トレーニングされたモデル、多様なデータセット、およびさまざまな公平性メトリクスに適用できます。
7 つのベンチマーク データセットの広範な評価により、FairTTTS は公平性の向上において従来の手法を上回っており、関連作業の 18.78% と比較してベースラインに対して平均 20.96% の向上を達成し、さらに精度が 0.55% 向上していることが示されています。
対照的に、競合する方法では通常、精度が 0.42% 低下します。
これらの結果は、FairTTTS がより公平な意思決定を効果的に促進し、同時に予測パフォーマンスを向上させることを裏付けています。
要約(オリジナル)
Algorithmic decision-making has become deeply ingrained in many domains, yet biases in machine learning models can still produce discriminatory outcomes, often harming unprivileged groups. Achieving fair classification is inherently challenging, requiring a careful balance between predictive performance and ethical considerations. We present FairTTTS, a novel post-processing bias mitigation method inspired by the Tree Test Time Simulation (TTTS) method. Originally developed to enhance accuracy and robustness against adversarial inputs through probabilistic decision-path adjustments, TTTS serves as the foundation for FairTTTS. By building on this accuracy-enhancing technique, FairTTTS mitigates bias and improves predictive performance. FairTTTS uses a distance-based heuristic to adjust decisions at protected attribute nodes, ensuring fairness for unprivileged samples. This fairness-oriented adjustment occurs as a post-processing step, allowing FairTTTS to be applied to pre-trained models, diverse datasets, and various fairness metrics without retraining. Extensive evaluation on seven benchmark datasets shows that FairTTTS outperforms traditional methods in fairness improvement, achieving a 20.96% average increase over the baseline compared to 18.78% for related work, and further enhances accuracy by 0.55%. In contrast, competing methods typically reduce accuracy by 0.42%. These results confirm that FairTTTS effectively promotes more equitable decision-making while simultaneously improving predictive performance.
arxiv情報
著者 | Nurit Cohen-Inger,Lior Rokach,Bracha Shapira,Seffi Cohen |
発行日 | 2025-01-14 14:29:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google