要約
機械学習 (ML) システムの採用が業界全体で増えているため、公平性と偏見に対処することが不可欠になっています。
多くのソリューションは ML における倫理的課題に焦点を当てていますが、最近の研究ではデータ自体がバイアスの主な原因であることが強調されています。
トレーニング前のバイアスを軽減する前処理手法は効果的ですが、モデルのパフォーマンスに影響を与え、統合が困難になる可能性があります。
対照的に、公平性を意識したデータ準備の実践は実務者にとって馴染みがあり、実装が容易であり、バイアスを軽減するためのよりアクセスしやすいアプローチを提供します。
客観的。
この登録済みレポートは、ML ライフサイクルの初期段階で適用される最適に選択された公平性を意識したプラクティスが、どのように公平性とパフォーマンスの両方を向上させ、標準的な前処理バイアス軽減方法を上回るパフォーマンスを実現できるかについての実証的評価を提案しています。
方法。
この目的を達成するために、公平性とパフォーマンスを最適化する「データ準備」パイプラインを選択するための最適化手法である FATE を導入します。
FATE を使用して、FATE によって選択されたパイプラインと前処理バイアス緩和手法による結果を比較し、公平性とパフォーマンスのトレードオフを分析します。
要約(オリジナル)
As machine learning (ML) systems are increasingly adopted across industries, addressing fairness and bias has become essential. While many solutions focus on ethical challenges in ML, recent studies highlight that data itself is a major source of bias. Pre-processing techniques, which mitigate bias before training, are effective but may impact model performance and pose integration difficulties. In contrast, fairness-aware Data Preparation practices are both familiar to practitioners and easier to implement, providing a more accessible approach to reducing bias. Objective. This registered report proposes an empirical evaluation of how optimally selected fairness-aware practices, applied in early ML lifecycle stages, can enhance both fairness and performance, potentially outperforming standard pre-processing bias mitigation methods. Method. To this end, we will introduce FATE, an optimization technique for selecting ‘Data Preparation’ pipelines that optimize fairness and performance. Using FATE, we will analyze the fairness-performance trade-off, comparing pipelines selected by FATE with results by pre-processing bias mitigation techniques.
arxiv情報
著者 | Gianmario Voria,Rebecca Di Matteo,Giammaria Giordano,Gemma Catolino,Fabio Palomba |
発行日 | 2024-12-20 14:12:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google