Correlational Image Modeling for Self-Supervised Visual Pre-Training

要約

タイトル:自己教育学習用の相関画像モデリング
要約:

– 相関画像モデリング(CIM)というアプローチを紹介する。
– CIMは自己教育学習用に、簡単な言葉のままで、画像領域(模範となるもの)を入力画像(文脈)からランダムに切り出し、模範と文脈の相関マップを予測する前提課題を実行する。
– 3つの重要な設計がCIMを実現する:1つ目は、各種のスケール、形状、回転、変換を持つ画像領域を切り出すことで、有用な模範と文脈のペアを生成すること。2つ目は、ネットワークエンコーダのオンラインとターゲットを組み合わせたブートストラップ学習フレームワークを採用すること。そして、前者が模範を入力とし、後者が文脈を変換する。3つ目は、相関マップをクロスアテンションブロックによってモデル化することで、文脈がクエリを提供し、模範が値とキーを提供する。
– CIMは、自己教育学習とトランスファーベンチマークでの現在の最先端と同等またはそれ以上の性能を発揮することがわかった。

要約(オリジナル)

We introduce Correlational Image Modeling (CIM), a novel and surprisingly effective approach to self-supervised visual pre-training. Our CIM performs a simple pretext task: we randomly crop image regions (exemplars) from an input image (context) and predict correlation maps between the exemplars and the context. Three key designs enable correlational image modeling as a nontrivial and meaningful self-supervisory task. First, to generate useful exemplar-context pairs, we consider cropping image regions with various scales, shapes, rotations, and transformations. Second, we employ a bootstrap learning framework that involves online and target encoders. During pre-training, the former takes exemplars as inputs while the latter converts the context. Third, we model the output correlation maps via a simple cross-attention block, within which the context serves as queries and the exemplars offer values and keys. We show that CIM performs on par or better than the current state of the art on self-supervised and transfer benchmarks.

arxiv情報

著者 Wei Li,Jiahao Xie,Chen Change Loy
発行日 2023-03-30 07:55:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク