FAIR-Ensemble: When Fairness Naturally Emerges From Deep Ensembling

要約

独立したディープ ニューラル ネットワーク (DNN) のアンサンブルは、トップライン メトリックを改善し、大規模な単一モデルよりも優れたパフォーマンスを発揮するためのシンプルで効果的な方法です。
この作業では、最上位のメトリックを超えて、代わりにサブグループのパフォーマンスに対するアンサンブルの影響を調査します。
驚くべきことに、単純な同種のアンサンブル (すべての個々のモデルが同じトレーニング セット、アーキテクチャ、および設計の選択を共有する) を使用しても、ワースト k および少数グループのパフォーマンスに説得力のある強力なゲインが見られます。つまり、公平性はアンサンブルから自然に生まれます。
より多くのモデルが追加されるにつれて、少数グループのアンサンブルによるパフォーマンスの向上は、多数グループの場合よりもはるかに長く続くことを示しています。
私たちの研究は、単純な DNN アンサンブルが DNN 分類子からのさまざまな影響を緩和するための強力なツールになり、アルゴリズムの害を抑えることを立証しています。
また、その理由についても考察します。
同種のアンサンブルであっても、パラメーターの初期化、ミニバッチ サンプリング、およびデータ拡張の実現を通じて確率のソースを変更すると、さまざまな公平性の結果が得られることがわかります。

要約(オリジナル)

Ensembling independent deep neural networks (DNNs) is a simple and effective way to improve top-line metrics and to outperform larger single models. In this work, we go beyond top-line metrics and instead explore the impact of ensembling on subgroup performances. Surprisingly, even with a simple homogenous ensemble — all the individual models share the same training set, architecture, and design choices — we find compelling and powerful gains in worst-k and minority group performance, i.e. fairness naturally emerges from ensembling. We show that the gains in performance from ensembling for the minority group continue for far longer than for the majority group as more models are added. Our work establishes that simple DNN ensembles can be a powerful tool for alleviating disparate impact from DNN classifiers, thus curbing algorithmic harm. We also explore why this is the case. We find that even in homogeneous ensembles, varying the sources of stochasticity through parameter initialization, mini-batch sampling, and the data-augmentation realizations, results in different fairness outcomes.

arxiv情報

著者 Wei-Yin Ko,Daniel D’souza,Karina Nguyen,Randall Balestriero,Sara Hooker
発行日 2023-03-01 15:28:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.CY, cs.LG, stat.ML パーマリンク