VoLTA: Vision-Language Transformer with Weakly-Supervised Local-Feature Alignment

要約

ビジョン言語事前トレーニング (VLP) は、最近、さまざまなユニモーダルおよびマルチモーダル ダウンストリーム アプリケーションで非常に効果的であることが証明されています。
ただし、既存のエンド ツー エンド VLP メソッドのほとんどは、高解像度の画像テキスト ボックス データを使用して、オブジェクトの検出、セグメンテーション、参照表現の理解などのきめ細かい領域レベルのタスクを適切に実行します。
残念ながら、正確なバウンディング ボックスの注釈を含むこのような高解像度の画像を収集して大規模な監視に使用するには、コストがかかります。
この作業では、画像キャプションデータのみを利用するが、高価なボックスの使用を排除する、きめ細かい領域レベルの画像理解を実現する新しい VLP パラダイムである VoLTA (弱教師付き局所特徴アライメントを備えた視覚言語変換) を提案します。
注釈。
VoLTA は、ローカル イメージ パッチとテキスト トークンに対して、グラフ最適化トランスポート ベースの弱い教師付き配置を採用して、明示的で自己正規化された解釈可能な低レベル マッチング基準を生成します。
さらに、VoLTA は事前トレーニング中にマルチモーダル フュージョンをユニモーダル バックボーンに深くプッシュし、フュージョン固有のトランスフォーマー レイヤーを削除して、メモリ要件をさらに削減します。
幅広いビジョンおよびビジョン言語のダウンストリーム タスクに関する広範な実験により、大まかなダウンストリーム パフォーマンスを損なうことなく、きめの細かいアプリケーションでの VoLTA の有効性が実証されました。

要約(オリジナル)

Vision-language pre-training (VLP) has recently proven highly effective for various uni- and multi-modal downstream applications. However, most existing end-to-end VLP methods use high-resolution image-text box data to perform well on fine-grained region-level tasks, such as object detection, segmentation, and referring expression comprehension. Unfortunately, such high-resolution images with accurate bounding box annotations are expensive to collect and use for supervision at scale. In this work, we propose VoLTA (Vision-Language Transformer with weakly-supervised local-feature Alignment), a new VLP paradigm that only utilizes image-caption data but achieves fine-grained region-level image understanding, eliminating the use of expensive box annotations. VoLTA adopts graph optimal transport-based weakly-supervised alignment on local image patches and text tokens to germinate an explicit, self-normalized, and interpretable low-level matching criterion. In addition, VoLTA pushes multi-modal fusion deep into the uni-modal backbones during pre-training and removes fusion-specific transformer layers, further reducing memory requirements. Extensive experiments on a wide range of vision- and vision-language downstream tasks demonstrate the effectiveness of VoLTA on fine-grained applications without compromising the coarse-grained downstream performance, often outperforming methods using significantly more caption and box annotations.

arxiv情報

著者 Shraman Pramanick,Li Jing,Sayan Nag,Jiachen Zhu,Hardik Shah,Yann LeCun,Rama Chellappa
発行日 2023-02-15 05:34:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.MM パーマリンク