要約
アルゴリズムの公平性は機械学習の中心的なトピックとなっており、さまざまな亜集団全体の格差を緩和することが急速に成長している研究分野として浮上しています。
このホワイトペーパーでは、公平性の制約に基づく機能データの分類を体系的に研究し、分類器の格差レベルが事前に指定されたしきい値の下に制御されるようにします。
公平性を認識した機能分類のための統一されたフレームワークを提案し、無限の次元機能空間に取り組み、密度比の欠如と事後確率の操作性からの重要な課題に対処し、機能分類におけるユニークな現象を議論することを提案します。
さらに、ポストプロセッシングアルゴリズムである公正な機能的線形判別分析分類子(FAIR-FLDA)を設計します。これは、ホモス酸ガウスプロセスをターゲットにし、グループごとのしきい値を介して公平性を達成します。
固有空間の弱い構造的仮定の下で、公平性と過剰なリスク制御に関する理論的保証が確立されます。
副産物として、私たちの結果は、特別なケースとして標準FLDAの過剰なリスク制御をカバーしています。これは、私たちの知る限り、初めて見られます。
理論的な調査結果は、合成および実際のデータセットに関する広範な数値実験によって補完され、設計されたアルゴリズムの実用性を強調しています。
要約(オリジナル)
Algorithmic fairness has become a central topic in machine learning, and mitigating disparities across different subpopulations has emerged as a rapidly growing research area. In this paper, we systematically study the classification of functional data under fairness constraints, ensuring the disparity level of the classifier is controlled below a pre-specified threshold. We propose a unified framework for fairness-aware functional classification, tackling an infinite-dimensional functional space, addressing key challenges from the absence of density ratios and intractability of posterior probabilities, and discussing unique phenomena in functional classification. We further design a post-processing algorithm, Fair Functional Linear Discriminant Analysis classifier (Fair-FLDA), which targets at homoscedastic Gaussian processes and achieves fairness via group-wise thresholding. Under weak structural assumptions on eigenspace, theoretical guarantees on fairness and excess risk controls are established. As a byproduct, our results cover the excess risk control of the standard FLDA as a special case, which, to the best of our knowledge, is first time seen. Our theoretical findings are complemented by extensive numerical experiments on synthetic and real datasets, highlighting the practicality of our designed algorithm.
arxiv情報
著者 | Xiaoyu Hu,Gengyu Xue,Zhenhua Lin,Yi Yu |
発行日 | 2025-05-14 15:22:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google