Fairness Without Demographics in Human-Centered Federated Learning

要約

フェデレーテッド ラーニング (FL) により、データのプライバシーを維持しながら協調的なモデル トレーニングが可能になるため、分散型の人間中心の AI アプリケーションに適しています。
しかし、これらのシステムの公平性を確保する上で、研究には大きなギャップが残っています。
フロリダ州の現在の公平性戦略は、バイアスを生み出す/デリケートな属性に関する知識を必要とし、フロリダ州のプライバシー原則と衝突します。
さらに、人間中心のデータセットでは、機密性の高い属性が潜在的なままになる可能性があります。
これらの課題に取り組むために、機械学習における「人口統計のない公平性」にヒントを得た新しいバイアス緩和アプローチを紹介します。
提示されたアプローチは、トレーニング中にヘッセ行列の最上位固有値を最小限に抑えることで、機密属性の知識を必要とせずに公平性を実現し、FL 参加者全体で公平な損失状況を確保します。
特に、エラー率と損失ランドスケープ曲率属性に基づいて参加モデルを促進する新しい FL 集約スキームを導入し、FL システム全体の公平性を促進します。
この研究は、人間中心のフロリダ州で「人口統計のない公平性」を達成するための最初のアプローチを表しています。
包括的な評価を通じて、私たちのアプローチは、さまざまな現実世界のアプリケーション、FL セットアップ、および単一および複数のバイアス誘発要因を含むシナリオにわたって公平性と有効性のバランスを取る有効性を実証し、人間中心の FL における大幅な進歩を表しています。

要約(オリジナル)

Federated learning (FL) enables collaborative model training while preserving data privacy, making it suitable for decentralized human-centered AI applications. However, a significant research gap remains in ensuring fairness in these systems. Current fairness strategies in FL require knowledge of bias-creating/sensitive attributes, clashing with FL’s privacy principles. Moreover, in human-centered datasets, sensitive attributes may remain latent. To tackle these challenges, we present a novel bias mitigation approach inspired by ‘Fairness without Demographics’ in machine learning. The presented approach achieves fairness without needing knowledge of sensitive attributes by minimizing the top eigenvalue of the Hessian matrix during training, ensuring equitable loss landscapes across FL participants. Notably, we introduce a novel FL aggregation scheme that promotes participating models based on error rates and loss landscape curvature attributes, fostering fairness across the FL system. This work represents the first approach to attaining ‘Fairness without Demographics’ in human-centered FL. Through comprehensive evaluation, our approach demonstrates effectiveness in balancing fairness and efficacy across various real-world applications, FL setups, and scenarios involving single and multiple bias-inducing factors, representing a significant advancement in human-centered FL.

arxiv情報

著者 Roy Shaily,Sharma Harshit,Salekin Asif
発行日 2024-04-30 17:19:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DC, cs.LG パーマリンク