DispaRisk: Auditing Fairness Through Usable Information

要約

機械学習アルゴリズム (ML) は、人間の生活のほぼすべての側面に影響を与え、医療、金融、教育などのさまざまな分野で使用されています。
多くの場合、ML アルゴリズムはデータセットに存在する社会的偏見を悪化させ、個人のサブセット/グループ、そして多くの場合少数派グループに敵対的な影響を与えることが判明しています。
これらの好ましくない影響を効果的に軽減するには、ML パイプラインの早い段階で格差/バイアスを特定することが重要です。
このプロアクティブなアプローチにより、タイムリーな介入が容易になり、バイアスの増幅を防ぎ、モデル開発の後の段階での複雑さを軽減できます。
このペーパーでは、利用可能な情報理論の最近の進歩を活用して、ML パイプラインの初期段階でデータセット内の差異の潜在的なリスクを積極的に評価するように設計された新しいフレームワークである DispaRisk を紹介します。
私たちは、公平性調査で一般的に使用されるデータセットに対してベンチマークを行うことにより、DispaRisk の有効性を評価します。
私たちの調査結果は、差別リスクの高いデータセットを特定し、ML パイプライン内でバイアスがかかりやすいモデル ファミリを検出し、これらのバイアス リスクの説明可能性を高める DispaRisk の機能を示しています。
この研究は、バイアスの早期検出と軽減のための堅牢なツールを提供することにより、より公平な ML システムの開発に貢献します。
実験のコードは次のリポジトリで入手できます: https://github.com/jovasque156/disparisk

要約(オリジナル)

Machine Learning algorithms (ML) impact virtually every aspect of human lives and have found use across diverse sectors including healthcare, finance, and education. Often, ML algorithms have been found to exacerbate societal biases present in datasets leading to adversarial impacts on subsets/groups of individuals and in many cases on minority groups. To effectively mitigate these untoward effects, it is crucial that disparities/biases are identified early in a ML pipeline. This proactive approach facilitates timely interventions to prevent bias amplification and reduce complexity at later stages of model development. In this paper, we leverage recent advancements in usable information theory to introduce DispaRisk, a novel framework designed to proactively assess the potential risks of disparities in datasets during the initial stages of the ML pipeline. We evaluate DispaRisk’s effectiveness by benchmarking it against commonly used datasets in fairness research. Our findings demonstrate DispaRisk’s capabilities to identify datasets with a high risk of discrimination, detect model families prone to biases within an ML pipeline, and enhance the explainability of these bias risks. This work contributes to the development of fairer ML systems by providing a robust tool for early bias detection and mitigation. The code for our experiments is available in the following repository: https://github.com/jovasque156/disparisk

arxiv情報

著者 Jonathan Vasquez,Carlotta Domeniconi,Huzefa Rangwala
発行日 2024-09-10 14:38:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク