A Catalog of Fairness-Aware Practices in Machine Learning Engineering

要約

意思決定プロセスにおける機械学習の広範な採用は、特に敏感な特徴の治療と少数派に対する潜在的な差別の治療に関する公平性に関する懸念を引き起こします。
ソフトウェアエンジニアリングコミュニティは、公平性指向のメトリック、経験的研究、およびアプローチを開発することで対応しました。
ただし、機械学習ライフサイクル全体で、エンジニアリングの公平性のための実践を理解し、分類することにはギャップが残っています。
このペーパーでは、体系的なマッピング研究から派生した機械学習の公平性に対処するための実践の新しいカタログを紹介します。
この調査では、既存の文献から28のプラクティスを特定して分類し、機械学習ライフサイクルのさまざまな段階にマッピングします。
このカタログから、著者は、ソフトウェアエンジニアリングの研究者と実践者の両方に実用的なアイテムと意味を抽出します。
この作業の目的は、機械学習システムの開発と展開に公平性の考慮事項を統合し、信頼性、説明責任、および信頼性を高めるための包括的なリソースを提供することを目的としています。

要約(オリジナル)

Machine learning’s widespread adoption in decision-making processes raises concerns about fairness, particularly regarding the treatment of sensitive features and potential discrimination against minorities. The software engineering community has responded by developing fairness-oriented metrics, empirical studies, and approaches. However, there remains a gap in understanding and categorizing practices for engineering fairness throughout the machine learning lifecycle. This paper presents a novel catalog of practices for addressing fairness in machine learning derived from a systematic mapping study. The study identifies and categorizes 28 practices from existing literature, mapping them onto different stages of the machine learning lifecycle. From this catalog, the authors extract actionable items and implications for both researchers and practitioners in software engineering. This work aims to provide a comprehensive resource for integrating fairness considerations into the development and deployment of machine learning systems, enhancing their reliability, accountability, and credibility.

arxiv情報

著者 Gianmario Voria,Giulia Sellitto,Carmine Ferrara,Francesco Abate,Andrea De Lucia,Filomena Ferrucci,Gemma Catolino,Fabio Palomba
発行日 2025-04-22 15:37:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SE パーマリンク