Can Fairness be Automated? Guidelines and Opportunities for Fairness-aware AutoML

要約

自動機械学習 (AutoML) の分野では、機械学習 (ML) システムの開発の一部を自動化する技術が導入され、プロセスが加速され、初心者の障壁が軽減されます。
ただし、ML モデルから派生した決定は、私たちの社会に不公平を再現、増幅、さらには導入し、個人 (のグループ) に損害を与える可能性があります。
これに応じて、研究者は、公平性と予測パフォーマンスを共同で最適化し、公平性に関連する害を軽減する AutoML システムの提案を開始しました。
ただし、公平性は複雑で本質的に学際的なテーマであり、それを最適化問題としてのみ提起すると、悪影響が生じる可能性があります。
この取り組みにより、私たちは公平性を意識した AutoML のそのような制限について AutoML システムの開発者の意識を高めると同時に、公平性研究のツールとしての AutoML の可能性にも注意を向けることを目指しています。
公平性に関連した損害が発生する可能性のあるさまざまな方法と、その後の公平性を意識した AutoML の設計への影響について、包括的な概要を示します。
私たちは、公平性を自動化することはできませんが、公平性を意識した AutoML は ML 実践者のツールボックスで重要な役割を果たすことができると結論付けています。
この方向での将来の作業に向けて、いくつかの未解決の技術的課題を強調します。
さらに、私たちは公平性の仕事で遭遇する課題に取り組むために設計された、よりユーザー中心の支援システムの作成を主張します。

要約(オリジナル)

The field of automated machine learning (AutoML) introduces techniques that automate parts of the development of machine learning (ML) systems, accelerating the process and reducing barriers for novices. However, decisions derived from ML models can reproduce, amplify, or even introduce unfairness in our societies, causing harm to (groups of) individuals. In response, researchers have started to propose AutoML systems that jointly optimize fairness and predictive performance to mitigate fairness-related harm. However, fairness is a complex and inherently interdisciplinary subject, and solely posing it as an optimization problem can have adverse side effects. With this work, we aim to raise awareness among developers of AutoML systems about such limitations of fairness-aware AutoML, while also calling attention to the potential of AutoML as a tool for fairness research. We present a comprehensive overview of different ways in which fairness-related harm can arise and the ensuing implications for the design of fairness-aware AutoML. We conclude that while fairness cannot be automated, fairness-aware AutoML can play an important role in the toolbox of ML practitioners. We highlight several open technical challenges for future work in this direction. Additionally, we advocate for the creation of more user-centered assistive systems designed to tackle challenges encountered in fairness work

arxiv情報

著者 Hilde Weerts,Florian Pfisterer,Matthias Feurer,Katharina Eggensperger,Edward Bergman,Noor Awad,Joaquin Vanschoren,Mykola Pechenizkiy,Bernd Bischl,Frank Hutter
発行日 2024-02-20 17:36:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク