Fair Mixed Effects Support Vector Machine

要約

偏りのない倫理的な自動予測を保証するために、機械学習アプリケーションでは公正さを基本原則としなければならない。機械学習における公平性は、学習データに存在するバイアスや、差別的な結果につながりかねないモデルの不完全性を軽減することを目的としている。これは、民族や性的指向のような微妙な特性に基づいてモデルが判断を下すことを防ぐことで達成される。機械学習における基本的な仮定は、オブザベーションの独立性である。しかし、この仮定は社会現象を記述するデータには当てはまらないことが多く、データポイントがクラスタ化されていることが多い。したがって、機械学習モデルがクラスタ相関を考慮しなければ、結果に偏りが生じる可能性がある。特に、クラスタ割り当てが対象変数と相関している場合には、バイアスが大きくなる。我々は、この2つの問題を同時に扱える公正な混合効果サポートベクターマシンアルゴリズムを提案する。再現可能なシミュレーション研究により、クラスタ化されたデータが公正な機械学習予測の品質に与える影響を実証する。

要約(オリジナル)

To ensure unbiased and ethical automated predictions, fairness must be a core principle in machine learning applications. Fairness in machine learning aims to mitigate biases present in the training data and model imperfections that could lead to discriminatory outcomes. This is achieved by preventing the model from making decisions based on sensitive characteristics like ethnicity or sexual orientation. A fundamental assumption in machine learning is the independence of observations. However, this assumption often does not hold true for data describing social phenomena, where data points are often clustered based. Hence, if the machine learning models do not account for the cluster correlations, the results may be biased. Especially high is the bias in cases where the cluster assignment is correlated to the variable of interest. We present a fair mixed effects support vector machine algorithm that can handle both problems simultaneously. With a reproducible simulation study we demonstrate the impact of clustered data on the quality of fair machine learning predictions.

arxiv情報

著者 João Vitor Pamplona,Jan Pablo Burgard
発行日 2024-09-03 07:10:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CY, cs.LG, math.OC パーマリンク