要約
Masked Autoencoder (MAE) は、画像パッチをランダムにマスキングして再構成することにより、さまざまな視覚タスクで優れたパフォーマンスを実証しました。
ただし、MAE の効果的なデータ拡張戦略は、最も重要な部分となる対照学習とは異なり、依然として未解決の疑問が残っています。
この論文では、MAE の一般的な混合拡張について研究します。
まず、単純混合が相互情報量 (MI) の増加により、対照的にモデルのパフォーマンスを低下させることを示します。
これに対処するために、補助的な口実タスクである相同認識を提案します。これは、各パッチに相同パッチを認識することを明示的に要求することで MI の増加を軽減するだけでなく、下流の密な知覚パフォーマンスを向上させるためにオブジェクト認識自己教師あり事前トレーニングを実行することもできます。
広範な実験により、私たちが提案する混合オートエンコーダー (MixedAE) が、さまざまな下流タスクでのマスク画像モデリング (MIM) 拡張間の最先端の転送結果を大幅な効率で達成できることを実証します。
具体的には、当社の MixedAE は、標準 ViT-Base を使用した場合、ImageNet-1K、ADE20K、COCO でそれぞれ +0.3% の精度、+1.7 mIoU、+0.9 AP で MAE を上回っています。
さらに、MixedAE は、インスタンス識別と組み合わせた強力な MIM 手法である iBOT を上回り、トレーニングを 2 倍高速化します。
私たちの知る限り、これは口実タスク設計の観点から MIM のミキシングを検討した最初の研究です。
コードが利用可能になります。
要約(オリジナル)
Masked Autoencoder (MAE) has demonstrated superior performance on various vision tasks via randomly masking image patches and reconstruction. However, effective data augmentation strategies for MAE still remain open questions, different from those in contrastive learning that serve as the most important part. This paper studies the prevailing mixing augmentation for MAE. We first demonstrate that naive mixing will in contrast degenerate model performance due to the increase of mutual information (MI). To address, we propose homologous recognition, an auxiliary pretext task, not only to alleviate the MI increasement by explicitly requiring each patch to recognize homologous patches, but also to perform object-aware self-supervised pre-training for better downstream dense perception performance. With extensive experiments, we demonstrate that our proposed Mixed Autoencoder (MixedAE) achieves the state-of-the-art transfer results among masked image modeling (MIM) augmentations on different downstream tasks with significant efficiency. Specifically, our MixedAE outperforms MAE by +0.3% accuracy, +1.7 mIoU and +0.9 AP on ImageNet-1K, ADE20K and COCO respectively with a standard ViT-Base. Moreover, MixedAE surpasses iBOT, a strong MIM method combined with instance discrimination, while accelerating training by 2x. To our best knowledge, this is the very first work to consider mixing for MIM from the perspective of pretext task design. Code will be made available.
arxiv情報
著者 | Kai Chen,Zhili Liu,Lanqing Hong,Hang Xu,Zhenguo Li,Dit-Yan Yeung |
発行日 | 2024-02-07 13:53:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google