要約
実世界のデータは非常に不均衡で、データ駆動型のディープ ニューラル ネットワークを大きくゆがめる傾向があるため、Long-Tailed Recognition (LTR) は非常に困難なタスクになります。
既存の LTR メソッドでは、ロングテール (LT) データを使用してビジョン トランスフォーマー (ViT) をトレーニングすることはめったにありませんが、ViT の市販の事前トレーニングの重みは常に不公平な比較につながります。
この論文では、LTR における ViT のパフォーマンスを体系的に調査し、LT データのみを使用して ViT をゼロからトレーニングする LiVT を提案します。
ViT はより深刻な LTR 問題を抱えているという観察に基づいて、一般化された機能を学習するために Masked Generative Pretraining (MGP) を実施します。
十分かつ確固たる証拠により、MGP は監視付きマナーよりも堅牢であることを示しています。
さらに、ViTs で顕著なパフォーマンスを示すバイナリ クロス エントロピー (BCE) 損失は、LTR で苦境に直面します。
さらに、強力な理論的根拠でそれを改善するために、バランスの取れたBCEを提案します。
特に、シグモイドの偏りのない拡張を導出し、それを展開するために追加のロジット マージンを補償します。
当社の Bal-BCE は、わずか数エポックで ViT の迅速な収束に貢献します。
MGP と Bal-BCE を使用した LiVT は、追加データなしで ViT のトレーニングに成功し、同等の最先端の方法よりも大幅に優れていることを広範な実験が示しています。
ベルとホイッスル。
コードは https://github.com/XuZhengzhuo/LiVT で入手できます。
要約(オリジナル)
The real-world data tends to be heavily imbalanced and severely skew the data-driven deep neural networks, which makes Long-Tailed Recognition (LTR) a massive challenging task. Existing LTR methods seldom train Vision Transformers (ViTs) with Long-Tailed (LT) data, while the off-the-shelf pretrain weight of ViTs always leads to unfair comparisons. In this paper, we systematically investigate the ViTs’ performance in LTR and propose LiVT to train ViTs from scratch only with LT data. With the observation that ViTs suffer more severe LTR problems, we conduct Masked Generative Pretraining (MGP) to learn generalized features. With ample and solid evidence, we show that MGP is more robust than supervised manners. In addition, Binary Cross Entropy (BCE) loss, which shows conspicuous performance with ViTs, encounters predicaments in LTR. We further propose the balanced BCE to ameliorate it with strong theoretical groundings. Specially, we derive the unbiased extension of Sigmoid and compensate extra logit margins to deploy it. Our Bal-BCE contributes to the quick convergence of ViTs in just a few epochs. Extensive experiments demonstrate that with MGP and Bal-BCE, LiVT successfully trains ViTs well without any additional data and outperforms comparable state-of-the-art methods significantly, e.g., our ViT-B achieves 81.0% Top-1 accuracy in iNaturalist 2018 without bells and whistles. Code is available at https://github.com/XuZhengzhuo/LiVT.
arxiv情報
著者 | Zhengzhuo Xu,Ruikang Liu,Shuo Yang,Zenghao Chai,Chun Yuan |
発行日 | 2023-03-08 12:26:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google