要約
公正な監視された機械学習のための新しい戦略が提案されています。
文献の他の戦略と比較した提案された戦略の主な利点は次のとおりです。
(a)不連続な不公平測定に関与する重い機能を近似するために、新しい滑らかな非凸の代理を導入します。
代理は、最適化の文献からの平滑化方法に基づいており、公正な監督された学習文献にとっては新しいものです。
サロゲートは、実際に公正な予測モデルにつながることができない他の(例えば凸)サロゲートとは対照的に、訓練された予測モデルが公正であることを保証する緊密な近似です。
(b)正規化(解決が困難な最適化の問題につながる)と対応する正規化パラメーター(調整が費用がかかる可能性がある)に依存するのではなく、不公平の特定の許容範囲を正規化の使用に関連する合併症なしに強制することができるように、ハード制約を使用する戦略を提案します。
(c)〜私たちの提案された戦略により、複数の(潜在的に矛盾する)不公平測定の制約が同時に容易に可能になります。
正規化アプローチでは複数の測定値を考慮することができますが、解決するのがさらに困難な最適化の問題が発生し、チューニングにさらなる費用がかかるという犠牲を払うことができます。
対照的に、ハード制約を通じて、私たちの戦略は、最小限のチューニングで扱いにくい最適化モデルにつながります。
要約(オリジナル)
A new strategy for fair supervised machine learning is proposed. The main advantages of the proposed strategy as compared to others in the literature are as follows. (a) We introduce a new smooth nonconvex surrogate to approximate the Heaviside functions involved in discontinuous unfairness measures. The surrogate is based on smoothing methods from the optimization literature, and is new for the fair supervised learning literature. The surrogate is a tight approximation which ensures the trained prediction models are fair, as opposed to other (e.g., convex) surrogates that can fail to lead to a fair prediction model in practice. (b) Rather than rely on regularizers (that lead to optimization problems that are difficult to solve) and corresponding regularization parameters (that can be expensive to tune), we propose a strategy that employs hard constraints so that specific tolerances for unfairness can be enforced without the complications associated with the use of regularization. (c)~Our proposed strategy readily allows for constraints on multiple (potentially conflicting) unfairness measures at the same time. Multiple measures can be considered with a regularization approach, but at the cost of having even more difficult optimization problems to solve and further expense for tuning. By contrast, through hard constraints, our strategy leads to optimization models that can be solved tractably with minimal tuning.
arxiv情報
著者 | Zahra Khatti,Daniel P. Robinson,Frank E. Curtis |
発行日 | 2025-05-21 17:41:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google