要約
分類タスクにおける深い学習モデルの有効性は、特定の属性とターゲットラベルの間に強い偽の相関を含む場合、モデル予測で回復不可能なバイアスをもたらす可能性のあるトレーニングデータの品質と量によって挑戦されることがよくあります。
これらのバイアスへの取り組みは、特に実際のシナリオでは、モデルの一般化と信頼を改善する上で重要です。
このホワイトペーパーでは、拡散モデルの固有のバイアス学習傾向を活用しながら、モデルの紛争における一般的な方法のプラグインとして機能する新しいアプローチである拡散するDebias(DDB)を提示します。
私たちのアプローチは、条件付き拡散モデルを活用して、バイアスアンプモデルのトレーニングに使用される合成バイアスアライメント画像を生成し、異なる監視なしの債務アプローチで補助方法としてさらに採用されます。
また、このタイプの技術に典型的なトレーニングセットの暗記の一般的な問題に取り組む提案された方法は、複数のベンチマークデータセットの現在の最先端を大きなマージンで打ち負かし、その可能性を実証します。
ディープラーニングアプリケーションにおけるデータセットバイアスの取り組み。
要約(オリジナル)
Deep learning model effectiveness in classification tasks is often challenged by the quality and quantity of training data which, whenever containing strong spurious correlations between specific attributes and target labels, can result in unrecoverable biases in model predictions. Tackling these biases is crucial in improving model generalization and trust, especially in real-world scenarios. This paper presents Diffusing DeBias (DDB), a novel approach acting as a plug-in for common methods in model debiasing while exploiting the inherent bias-learning tendency of diffusion models. Our approach leverages conditional diffusion models to generate synthetic bias-aligned images, used to train a bias amplifier model, to be further employed as an auxiliary method in different unsupervised debiasing approaches. Our proposed method, which also tackles the common issue of training set memorization typical of this type of tech- niques, beats current state-of-the-art in multiple benchmark datasets by significant margins, demonstrating its potential as a versatile and effective tool for tackling dataset bias in deep learning applications.
arxiv情報
著者 | Massimiliano Ciranni,Vito Paolo Pastore,Roberto Di Via,Enzo Tartaglione,Francesca Odone,Vittorio Murino |
発行日 | 2025-02-13 18:17:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google