Boosting Discriminative Visual Representation Learning with Scenario-Agnostic Mixup

要約

ミックスアップは、DNN のよく知られたデータ依存の拡張手法であり、ミックスアップの生成と分類という 2 つのサブタスクで構成されます。
ただし、最近の主流のオンライン トレーニング方法では、ミックスアップは教師あり学習 (SL) に限定されており、生成サブタスクの目的はデータ多様体全体ではなく選択されたサンプル ペアに限定されているため、自明な解決策が得られない可能性があります。
このような制限を克服するために、私たちはミックスアップ生成の目的を包括的に研究し、SL シナリオと自己教師あり学習 (SSL) シナリオの両方に対して \textbf{S}cenario-\textbf{A}gnostic \textbf{Mix}up (SAMix) を提案します。
具体的には、他のクラスからの大域的な差別を受ける 2 つの混合クラス間の局所的な滑らかさを最適化するというミックスアップ生成の目的関数を仮説および検証します。
したがって、2 つの副目的の相補学習のために $\eta$ バランスのとれたミックスアップ損失を提案します。
一方、ラベルフリー生成サブネットワークが設計されており、これにより自明ではない混合サンプルが効果的に提供され、転送可能能力が向上します。
さらに、オンライン トレーニングの計算コストを削減するために、事前トレーニング バージョン SAMix$^\mathcal{P}$ をさらに導入し、より有利な効率と一般化性を実現します。
9 つの SL および SSL ベンチマークに関する広範な実験により、既存の方法と比較した SAMix の一貫した優位性と多用途性が実証されました。

要約(オリジナル)

Mixup is a well-known data-dependent augmentation technique for DNNs, consisting of two sub-tasks: mixup generation and classification. However, the recent dominant online training method confines mixup to supervised learning (SL), and the objective of the generation sub-task is limited to selected sample pairs instead of the whole data manifold, which might cause trivial solutions. To overcome such limitations, we comprehensively study the objective of mixup generation and propose \textbf{S}cenario-\textbf{A}gnostic \textbf{Mix}up (SAMix) for both SL and Self-supervised Learning (SSL) scenarios. Specifically, we hypothesize and verify the objective function of mixup generation as optimizing local smoothness between two mixed classes subject to global discrimination from other classes. Accordingly, we propose $\eta$-balanced mixup loss for complementary learning of the two sub-objectives. Meanwhile, a label-free generation sub-network is designed, which effectively provides non-trivial mixup samples and improves transferable abilities. Moreover, to reduce the computational cost of online training, we further introduce a pre-trained version, SAMix$^\mathcal{P}$, achieving more favorable efficiency and generalizability. Extensive experiments on nine SL and SSL benchmarks demonstrate the consistent superiority and versatility of SAMix compared with existing methods.

arxiv情報

著者 Siyuan Li,Zicheng Liu,Zedong Wang,Di Wu,Zihan Liu,Stan Z. Li
発行日 2023-05-23 17:51:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク