要約
この論文では、グラフィカル モデル (GM)、特にガウス モデル、共分散モデル、およびイジング モデルの推定における公平性の問題を検討します。
これらのモデルは、高次元データの複雑な関係を理解する上で重要な役割を果たします。
ただし、標準的な GM では、特に基になるデータに機密性の高い特性や保護されたグループが含まれる場合、偏った結果が生じる可能性があります。
これに対処するために、保護された属性に関連する GM の推定における偏りを減らすように設計された包括的なフレームワークを導入します。
私たちのアプローチには、ペアごとのグラフ視差誤差と調整された損失関数を非滑らかな多目的最適化問題に統合することが含まれており、GM の有効性を維持しながら、異なる敏感なグループ間で公平性を達成するよう努めています。
合成データセットと現実世界のデータセットに対する実験評価により、私たちのフレームワークが GM のパフォーマンスを損なうことなくバイアスを効果的に軽減できることが実証されました。
要約(オリジナル)
This paper examines the issue of fairness in the estimation of graphical models (GMs), particularly Gaussian, Covariance, and Ising models. These models play a vital role in understanding complex relationships in high-dimensional data. However, standard GMs can result in biased outcomes, especially when the underlying data involves sensitive characteristics or protected groups. To address this, we introduce a comprehensive framework designed to reduce bias in the estimation of GMs related to protected attributes. Our approach involves the integration of the pairwise graph disparity error and a tailored loss function into a nonsmooth multi-objective optimization problem, striving to achieve fairness across different sensitive groups while maintaining the effectiveness of the GMs. Experimental evaluations on synthetic and real-world datasets demonstrate that our framework effectively mitigates bias without undermining GMs’ performance.
arxiv情報
著者 | Zhuoping Zhou,Davoud Ataee Tarzanagh,Bojian Hou,Qi Long,Li Shen |
発行日 | 2024-08-30 16:30:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google