要約
深いニューラルネットワークが過去10年間でスリリングなブレークスルーを達成したため、大規模なラベル付きデータが利用できない場合、データの増加は正規化技術として注目を集めています。
既存の増強の中で、選択されたサンプルを凸に組み合わせた混合および関連するデータミックスメソッドと、対応するラベルは、さまざまなドメインに簡単に移行しながらデータ依存性の仮想データを生成することで高いパフォーマンスを生成するため、広く採用されています。
この調査では、基礎的な混合方法とそのアプリケーションの包括的なレビューを提示します。
最初に、モジュールを含む統合フレームワークとして混合の増加を備えたトレーニングパイプラインについて詳しく説明します。
再定式化されたフレームワークには、さまざまな混合方法が含まれており、直感的な運用手順を提供できます。
次に、視力下流タスク、さまざまなデータモダリティ、および混合のいくつかの分析\&理論に関する混合の増強のアプリケーションを体系的に調査します。
一方、混合研究の現在の状況と制限を締結し、効果的かつ効率的な混合の増強のためのさらなる作業を指摘します。
この調査では、研究者にミックスアップ方法の現在の最新技術を提供し、ミックスアップアリーナでの洞察とガイダンスの役割を提供できます。
この調査のオンラインプロジェクトは、https://github.com/westlake-ai/awesome-mixupで入手できます。
要約(オリジナル)
As Deep Neural Networks have achieved thrilling breakthroughs in the past decade, data augmentations have garnered increasing attention as regularization techniques when massive labeled data are unavailable. Among existing augmentations, Mixup and relevant data-mixing methods that convexly combine selected samples and the corresponding labels are widely adopted because they yield high performances by generating data-dependent virtual data while easily migrating to various domains. This survey presents a comprehensive review of foundational mixup methods and their applications. We first elaborate on the training pipeline with mixup augmentations as a unified framework containing modules. A reformulated framework could contain various mixup methods and give intuitive operational procedures. Then, we systematically investigate the applications of mixup augmentations on vision downstream tasks, various data modalities, and some analysis \& theorems of mixup. Meanwhile, we conclude the current status and limitations of mixup research and point out further work for effective and efficient mixup augmentations. This survey can provide researchers with the current state of the art in mixup methods and provide some insights and guidance roles in the mixup arena. An online project with this survey is available at https://github.com/Westlake-AI/Awesome-Mixup.
arxiv情報
著者 | Xin Jin,Hongyu Zhu,Siyuan Li,Zedong Wang,Zicheng Liu,Juanxi Tian,Chang Yu,Huafeng Qin,Stan Z. Li |
発行日 | 2025-04-23 17:47:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google