Effective Dual-Region Augmentation for Reduced Reliance on Large Amounts of Labeled Data

要約

本論文では、大規模なラベル付きデータセットへの依存を低減する一方で、ソースフリードメインアダプテーション(SFDA)や人物再識別(ReID)などの多様なコンピュータビジョンタスクにおけるモデルの頑健性と適応性を向上させるために設計された、新しい二重領域拡張アプローチを紹介する。本手法は、前景オブジェクトにランダムなノイズ摂動を適用し、背景パッチを空間的にシャッフルすることで、的を絞ったデータ変換を行う。これにより、学習データの多様性を効果的に増加させ、モデルの頑健性と汎化性を向上させる。SFDAのためのPACSデータセットでの評価により、我々の増強戦略が一貫して既存の手法を凌駕し、単一ターゲットと複数ターゲットの適応設定の両方で大幅な精度向上を達成することが実証された。構造化変換により学習データを増強することで、本手法はドメイン横断的なモデルの汎化を可能にし、人手によるアノテーションデータセットへの依存を低減するスケーラブルなソリューションを提供する。さらに、Market-1501とDukeMTMC-reIDデータセットでの実験により、従来の補強技術を凌駕する、人物ReIDに対する本アプローチの有効性が検証された。コードはhttps://github.com/PrasannaPulakurthi/Foreground-Background-Augmentation。

要約(オリジナル)

This paper introduces a novel dual-region augmentation approach designed to reduce reliance on large-scale labeled datasets while improving model robustness and adaptability across diverse computer vision tasks, including source-free domain adaptation (SFDA) and person re-identification (ReID). Our method performs targeted data transformations by applying random noise perturbations to foreground objects and spatially shuffling background patches. This effectively increases the diversity of the training data, improving model robustness and generalization. Evaluations on the PACS dataset for SFDA demonstrate that our augmentation strategy consistently outperforms existing methods, achieving significant accuracy improvements in both single-target and multi-target adaptation settings. By augmenting training data through structured transformations, our method enables model generalization across domains, providing a scalable solution for reducing reliance on manually annotated datasets. Furthermore, experiments on Market-1501 and DukeMTMC-reID datasets validate the effectiveness of our approach for person ReID, surpassing traditional augmentation techniques. The code is available at https://github.com/PrasannaPulakurthi/Foreground-Background-Augmentation

arxiv情報

著者 Prasanna Reddy Pulakurthi,Majid Rabbani,Celso M. de Melo,Sohail A. Dianat,Raghuveer M. Rao
発行日 2025-06-03 16:43:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク