要約
ディープ ニューラル ネットワークの公平性は、データセットのバイアスと偽の相関によって強く影響されます。これらはどちらも、最新の機能豊富で複雑なビジュアル データセットに通常存在します。
タスクの難しさとばらつきのため、単一のバイアス除去方法が普遍的に成功するということはありません。
特に、バイアス変数に関する明示的な知識を必要としない陰的解法は、現実世界のアプリケーションに特に当てはまります。
私たちは、ベイジアン ニューラル ネットワークを使用した新しい陰的緩和方法を提案します。これにより、認識論的な不確実性と、サンプル内のバイアスまたは偽相関の存在との間の関係を利用できるようになります。
私たちが提案する事後推定値鮮明化手順は、ネットワークが高い不確実性に寄与しない中心的な特徴に焦点を当てるように促します。
3 つのベンチマーク データセットに関する実験結果は、シャープ化された事後推定値を備えたベイジアン ネットワークが以前の既存の方法と同等のパフォーマンスを示し、さらなる調査に値する可能性を示していることを示しています。
要約(オリジナル)
The fairness of a deep neural network is strongly affected by dataset bias and spurious correlations, both of which are usually present in modern feature-rich and complex visual datasets. Due to the difficulty and variability of the task, no single de-biasing method has been universally successful. In particular, implicit methods not requiring explicit knowledge of bias variables are especially relevant for real-world applications. We propose a novel implicit mitigation method using a Bayesian neural network, allowing us to leverage the relationship between epistemic uncertainties and the presence of bias or spurious correlations in a sample. Our proposed posterior estimate sharpening procedure encourages the network to focus on core features that do not contribute to high uncertainties. Experimental results on three benchmark datasets demonstrate that Bayesian networks with sharpened posterior estimates perform comparably to prior existing methods and show potential worthy of further exploration.
arxiv情報
著者 | Rebecca S Stone,Nishant Ravikumar,Andrew J Bulpitt,David C Hogg |
発行日 | 2024-02-27 15:08:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google