DropMix: Reducing Class Dependency in Mixed Sample Data Augmentation

要約

混合サンプル データ拡張 (MSDA) は、さまざまなタスクのパフォーマンスを向上させることがわかっている広く使用されている手法です。
ただし、この論文では、MSDA の効果はクラスに依存しており、一部のクラスではパフォーマンスの向上が見られる一方、他のクラスではパフォーマンスが低下していることを示します。
クラスの依存性を減らすために、MSDA の計算から特定の割合のデータを除外する DropMix メソッドを提案します。
MSDA データと非 MSDA データの組み合わせでトレーニングすることにより、提案された方法は、MSDA によって以前に低下していたクラスのパフォーマンスを向上させるだけでなく、2 つのデータセット (CIFAR-100 と ImageNet) での実験で示されているように、全体的な平均精度も向上します。
) 3 つの MSDA メソッド (Mixup、CutMix、PuzzleMix) を使用します。

要約(オリジナル)

Mixed sample data augmentation (MSDA) is a widely used technique that has been found to improve performance in a variety of tasks. However, in this paper, we show that the effects of MSDA are class-dependent, with some classes seeing an improvement in performance while others experience a decline. To reduce class dependency, we propose the DropMix method, which excludes a specific percentage of data from the MSDA computation. By training on a combination of MSDA and non-MSDA data, the proposed method not only improves the performance of classes that were previously degraded by MSDA, but also increases overall average accuracy, as shown in experiments on two datasets (CIFAR-100 and ImageNet) using three MSDA methods (Mixup, CutMix and PuzzleMix).

arxiv情報

著者 Haeil Lee,Hansang Lee,Junmo Kim
発行日 2023-07-18 10:34:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク