要約
機械学習(ML)の公平性は、人工知能(AI)システムがヘルスケアの決定や法的判断など、社会のさまざまな側面にますます影響を与えるため、信頼できる機械学習システムを構築するために非常に重要です。
さらに、多くの研究が、MLの不公平な結果の証拠と、より堅牢な公平性を意識する方法の必要性を示しています。
ただし、ディビアージングテクニックをトレーニングおよび開発するために使用するデータには、多くの場合、偏ったラベルとノイズの多いラベルが含まれています。
その結果、トレーニングデータのラベルバイアスはモデルのパフォーマンスに影響し、テスト中の分類器の公平性を誤って伝えます。
この問題に取り組むために、私たちの論文は、データセットで人口統計パリティを維持しながらラベルノイズを修正するための効率的な方法であるグラフベースの公平性ラベル補正(GFLC)を提示します。
特に、私たちのアプローチは、3つの重要なコンポーネントを組み合わせています。予測信頼測定、Ricci-flow-Optimized Graph Laplaciansによるグラフベースの正規化、および明示的な人口統計パリティインセンティブです。
私たちの実験的調査結果は、提案されたアプローチの有効性を示し、ベースラインと比較したパフォーマンスと公平性メトリックのトレードオフの大幅な改善を示しています。
要約(オリジナル)
Fairness in machine learning (ML) has a critical importance for building trustworthy machine learning system as artificial intelligence (AI) systems increasingly impact various aspects of society, including healthcare decisions and legal judgments. Moreover, numerous studies demonstrate evidence of unfair outcomes in ML and the need for more robust fairness-aware methods. However, the data we use to train and develop debiasing techniques often contains biased and noisy labels. As a result, the label bias in the training data affects model performance and misrepresents the fairness of classifiers during testing. To tackle this problem, our paper presents Graph-based Fairness-aware Label Correction (GFLC), an efficient method for correcting label noise while preserving demographic parity in datasets. In particular, our approach combines three key components: prediction confidence measure, graph-based regularization through Ricci-flow-optimized graph Laplacians, and explicit demographic parity incentives. Our experimental findings show the effectiveness of our proposed approach and show significant improvements in the trade-off between performance and fairness metrics compared to the baseline.
arxiv情報
著者 | Modar Sulaiman,Kallol Roy |
発行日 | 2025-06-18 16:51:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google