要約
ディープ ニューラル ネットワークの公平性は、データセットのバイアスと疑似相関の影響を強く受けます。これらは通常、機能が豊富で複雑な最新のビジュアル データセットに存在します。
タスクの難しさと多様性のために、単一のバイアス緩和方法が普遍的に成功したことはありません。
特に、バイアス変数の明示的な知識を必要としない暗黙的な方法は、実際のアプリケーションに特に関連しています。
ベイジアン ニューラル ネットワークを使用した新しい暗黙的な緩和方法を提案し、認識論的不確実性と、サンプル内のバイアスまたは偽の相関関係の存在との関係を活用できるようにします。
提案された事後推定のシャープ化手順は、ネットワークが高い不確実性に寄与しないコア機能に集中することを奨励します。
3 つのベンチマーク データセットに関する実験結果は、事後推定値がシャープになったベイジアン ネットワークが以前の既存の方法と同等に機能し、さらなる調査に値する可能性を示していることを示しています。
要約(オリジナル)
The fairness of a deep neural network is strongly affected by dataset bias and spurious correlations, both of which are usually present in modern feature-rich and complex visual datasets. Due to the difficulty and variability of the task, no single de-biasing method has been universally successful. In particular, implicit methods not requiring explicit knowledge of bias variables are especially relevant for real-world applications. We propose a novel implicit mitigation method using a Bayesian neural network, allowing us to leverage the relationship between epistemic uncertainties and the presence of bias or spurious correlations in a sample. Our proposed posterior estimate sharpening procedure encourages the network to focus on core features that do not contribute to high uncertainties. Experimental results on three benchmark datasets demonstrate that Bayesian networks with sharpened posterior estimates perform comparably to prior existing methods and show potential worthy of further exploration.
arxiv情報
著者 | Rebecca S Stone,Nishant Ravikumar,Andrew J Bulpitt,David C Hogg |
発行日 | 2023-03-29 09:47:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google