On the Importance of Architectures and Hyperparameters for Fairness in Face Recognition

要約

顔認識システムは、政府機関や請負業者によって、監視やデータベース照合などの機密性が高く影響力のあるタスクのために世界中に展開されています。
広く使用されているにもかかわらず、これらのシステムは、性別や人種など、さまざまな社会人口学的側面にわたってバイアスを示すことが知られています。
それにもかかわらず、前処理、トレーニング、および後処理の方法を提案する一連の研究は、これらのギャップを埋めることができませんでした。
ここでは、この問題に対して非常に異なるアプローチを取り、ニューラル ネットワークのアーキテクチャとハイパーパラメーターの両方がバイアスの低減に役立つことを確認します。
最初に、いくつかの一般的な公平性メトリクスに対するアーキテクチャとトレーニング ハイパーパラメータの影響の大規模な分析を実行し、高精度のアーキテクチャを選択する暗黙の規則が公平性にとって最適ではない可能性があることを示します。
私たちの調査結果に動機付けられて、ハイパーパラメーターの検索と組み合わせて、公平性の最初のニューラル アーキテクチャ検索を実行します。
正確性と公平性の点で、他のすべての競合アーキテクチャをパレート支配する一連のモデルを出力します。
さらに、これらのモデルは、類似した異なる保護された属性を持つ他の顔認識データセットにうまく移行することを示しています。
コードと生の結果ファイルをリリースして、研究者や実務家が公平性指標を選択したバイアス尺度に置き換えることができるようにします。

要約(オリジナル)

Face recognition systems are deployed across the world by government agencies and contractors for sensitive and impactful tasks, such as surveillance and database matching. Despite their widespread use, these systems are known to exhibit bias across a range of sociodemographic dimensions, such as gender and race. Nonetheless, an array of works proposing pre-processing, training, and post-processing methods have failed to close these gaps. Here, we take a very different approach to this problem, identifying that both architectures and hyperparameters of neural networks are instrumental in reducing bias. We first run a large-scale analysis of the impact of architectures and training hyperparameters on several common fairness metrics and show that the implicit convention of choosing high-accuracy architectures may be suboptimal for fairness. Motivated by our findings, we run the first neural architecture search for fairness, jointly with a search for hyperparameters. We output a suite of models which Pareto-dominate all other competitive architectures in terms of accuracy and fairness. Furthermore, we show that these models transfer well to other face recognition datasets with similar and distinct protected attributes. We release our code and raw result files so that researchers and practitioners can replace our fairness metrics with a bias measure of their choice.

arxiv情報

著者 Rhea Sukthanker,Samuel Dooley,John P. Dickerson,Colin White,Frank Hutter,Micah Goldblum
発行日 2022-10-18 15:46:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.CY, cs.LG パーマリンク