要約
公平で倫理的な自動予測を保証するには、公平性が機械学習アプリケーションの中核原則である必要があります。
機械学習の公平性は、トレーニング データに存在するバイアスを軽減し、差別的な結果につながる可能性のある不完全性をモデル化することを目的としています。
これは、モデルが民族性や性的指向などのデリケートな特性に基づいて意思決定を行うのを防ぐことで実現されます。
機械学習の基本的な前提は、観測値の独立性です。
ただし、この仮定は社会現象を記述するデータには当てはまらないことが多く、データ ポイントはクラスターに基づいて作成されることがよくあります。
したがって、機械学習モデルがクラスター相関を考慮していない場合、結果に偏りが生じる可能性があります。
クラスターの割り当てが対象の変数に相関している場合、バイアスが特に高くなります。
両方の問題を同時に処理できる、公平な混合効果サポート ベクター マシン アルゴリズムを紹介します。
再現可能なシミュレーション研究により、公平な機械学習予測の品質に対するクラスター化データの影響を実証します。
要約(オリジナル)
To ensure unbiased and ethical automated predictions, fairness must be a core principle in machine learning applications. Fairness in machine learning aims to mitigate biases present in the training data and model imperfections that could lead to discriminatory outcomes. This is achieved by preventing the model from making decisions based on sensitive characteristics like ethnicity or sexual orientation. A fundamental assumption in machine learning is the independence of observations. However, this assumption often does not hold true for data describing social phenomena, where data points are often clustered based. Hence, if the machine learning models do not account for the cluster correlations, the results may be biased. Especially high is the bias in cases where the cluster assignment is correlated to the variable of interest. We present a fair mixed effects support vector machine algorithm that can handle both problems simultaneously. With a reproducible simulation study we demonstrate the impact of clustered data on the quality of fair machine learning predictions.
arxiv情報
著者 | João Vitor Pamplona,Jan Pablo Burgard |
発行日 | 2024-09-25 13:32:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google