要約
ディープ ニューラル ネットワークは、トレーニング データを効率的にフィッティングすることでよく知られていますが、実際のタスク ラベルに対して何らかのバイアスが優勢になると汎化機能が低下し、その結果、モデルが「ショートカット」を学習することになります。
基本的に、このようなモデルはデータとラベル間の誤った相関関係を学習する傾向があります。
この研究では、非常に現実的な教師なしシナリオ、つまりバイアスが未知の場合におけるバイアスのあるデータからの学習の問題に取り組みます。
これは、補助的なバイアス関連のアノテーションが学習プロセスで利用される可能性がある教師ありケースと比較して、はるかに困難なタスクです。
この論文では、トレーニングを正規化できるデータ拡張戦略を特徴とする新しい 2 段階の学習パイプラインを提案します。
まず、偏りのあるサンプルと偏っていないサンプルは、過度に偏ったモデルをトレーニングすることによって識別されます。
第 2 に、このような細分化 (通常はノイズが多い) はデータ拡張フレームワーク内で利用され、混合パラメータを学習しながら元のサンプルを適切に組み合わせ、これにより正則化効果が得られます。
合成および現実的な偏りのあるデータセットの実験では、最先端の分類精度が示され、競合する方法を上回っており、最終的に偏りのある例と偏っていない例の両方で堅牢なパフォーマンスが証明されています。
特に、私たちのトレーニング方法はバイアスのレベルにまったく依存しないため、一見バイアスがかかっていないデータセットであってもパフォーマンスにプラスの影響を与え、データ内のバイアスのレベル(またはバイアスの欠如)に関係なくモデルの一般化が向上します。
要約(オリジナル)
Deep Neural Networks are well known for efficiently fitting training data, yet experiencing poor generalization capabilities whenever some kind of bias dominates over the actual task labels, resulting in models learning ‘shortcuts’. In essence, such models are often prone to learn spurious correlations between data and labels. In this work, we tackle the problem of learning from biased data in the very realistic unsupervised scenario, i.e., when the bias is unknown. This is a much harder task as compared to the supervised case, where auxiliary, bias-related annotations, can be exploited in the learning process. This paper proposes a novel 2-stage learning pipeline featuring a data augmentation strategy able to regularize the training. First, biased/unbiased samples are identified by training over-biased models. Second, such subdivision (typically noisy) is exploited within a data augmentation framework, properly combining the original samples while learning mixing parameters, which has a regularization effect. Experiments on synthetic and realistic biased datasets show state-of-the-art classification accuracy, outperforming competing methods, ultimately proving robust performance on both biased and unbiased examples. Notably, being our training method totally agnostic to the level of bias, it also positively affects performance for any, even apparently unbiased, dataset, thus improving the model generalization regardless of the level of bias (or its absence) in the data.
arxiv情報
著者 | Pietro Morerio,Ruggero Ragonesi,Vittorio Murino |
発行日 | 2024-08-09 09:19:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google