要約
この論文は、現在の自己教師あり学習方法が十分にスケールアップされた場合、人間が学習するのと同じ種類と量の視覚体験で人間レベルの視覚物体認識能力に到達できるかどうかを問うものです。
この質問に関する以前の研究では、データ サイズのスケーリングのみが考慮されていました。
ここでは、データ サイズ、モデル サイズ、画像解像度の同時スケーリングを考慮します。
最大 5,000 時間の人間のようなビデオ データ (長時間、連続した、主に自己中心的なビデオ) でトレーニングされた、最大 6 億 3,300 万のサイズのパラメータを持つビジョン トランスフォーマー (ViT-H/14) を使用してスケーリング実験を実行します。画像解像度は最大 476×476 ピクセルです。
。
自己教師あり学習アルゴリズムとしてのマスク オートエンコーダ (MAE) の効率性により、このスケーリング実験を控えめな学術予算で実行することが可能になります。
これらの要素を同時にスケールアップすれば、モデルサイズ、データサイズ、画像サイズの人間以下のスケールで人間レベルの物体認識能力に到達することが実現可能であることがわかりました。
具体的な例を挙げると、952×952 ピクセルの空間解像度を持つ 20,000 時間 (2.3 年) の人間のようなビデオ データでトレーニングされた 2.5B パラメーターの ViT モデルは、ImageNet 上でほぼ人間レベルの精度に達できるはずであると推定されます。
したがって、人間レベルの能力は、非常に汎用的な学習アルゴリズムとアーキテクチャを使用して、実質的な帰納的バイアスなしに、人間のような知覚経験(量と種類の両方において人間に似ている)から基本的な知覚能力を達成できます。
要約(オリジナル)
This paper asks whether current self-supervised learning methods, if sufficiently scaled up, would be able to reach human-level visual object recognition capabilities with the same type and amount of visual experience humans learn from. Previous work on this question only considered the scaling of data size. Here, we consider the simultaneous scaling of data size, model size, and image resolution. We perform a scaling experiment with vision transformers up to 633M parameters in size (ViT-H/14) trained with up to 5K hours of human-like video data (long, continuous, mostly egocentric videos) with image resolutions of up to 476×476 pixels. The efficiency of masked autoencoders (MAEs) as a self-supervised learning algorithm makes it possible to run this scaling experiment on an unassuming academic budget. We find that it is feasible to reach human-level object recognition capacity at sub-human scales of model size, data size, and image size, if these factors are scaled up simultaneously. To give a concrete example, we estimate that a 2.5B parameter ViT model trained with 20K hours (2.3 years) of human-like video data with a spatial resolution of 952×952 pixels should be able to reach roughly human-level accuracy on ImageNet. Human-level competence is thus achievable for a fundamental perceptual capability from human-like perceptual experience (human-like in both amount and type) with extremely generic learning algorithms and architectures and without any substantive inductive biases.
arxiv情報
著者 | A. Emin Orhan |
発行日 | 2023-08-10 16:23:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google