要約
公平性は、モデルが特定のグループ、特に人種、性別、年齢などの保護された属性によって定義されているグループに体系的に偏った結果を生成しないようにすることに焦点を当てた機械学習の成長領域(ML)です。
偏ったモデルは構造的不平等を永続させる可能性があるため、公平性を評価することはMLモデル開発の重要な側面です。
{fairmetrics} Rパッケージは、独立性(統計パリティなど)、分離(例えば、均等化されたオッズ)、および十分性(例えば、予測的なパリティ)に基づくメトリックを含む、多数のグループベースの公平性基準を厳密に評価するためのユーザーフレームワークを提供します。
グループベースの公平性基準は、モデルが事前に定義された一連のグループ全体で等しく正確であるか十分に調整されているかどうかを評価し、適切なバイアス緩和戦略を実装できるようにします。
{fairmetrics}は、便利なラッパー関数を介して複数のメトリックのポイントと間隔の両方の推定値を提供し、集中治療のための医療情報マート、バージョンII(mimic-ii)データベース(Goldberger et al。、2000; Raffa、2016)から派生したデータセットの例が含まれています。
要約(オリジナル)
Fairness is a growing area of machine learning (ML) that focuses on ensuring models do not produce systematically biased outcomes for specific groups, particularly those defined by protected attributes such as race, gender, or age. Evaluating fairness is a critical aspect of ML model development, as biased models can perpetuate structural inequalities. The {fairmetrics} R package offers a user-friendly framework for rigorously evaluating numerous group-based fairness criteria, including metrics based on independence (e.g., statistical parity), separation (e.g., equalized odds), and sufficiency (e.g., predictive parity). Group-based fairness criteria assess whether a model is equally accurate or well-calibrated across a set of predefined groups so that appropriate bias mitigation strategies can be implemented. {fairmetrics} provides both point and interval estimates for multiple metrics through a convenient wrapper function and includes an example dataset derived from the Medical Information Mart for Intensive Care, version II (MIMIC-II) database (Goldberger et al., 2000; Raffa, 2016).
arxiv情報
著者 | Benjamin Smith,Jianhui Gao,Jessica Gronsbell |
発行日 | 2025-06-06 17:07:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google