要約
画像にキャプションを付ける方法は何千もあります。
一方、Contrastive Language Pretraining (CLIP) は、画像とそのキャプションを単一のベクトルにマッピングすることで機能します。これにより、CLIP のようなモデルが画像を記述するさまざまな方法をどれだけうまく表現できるかが制限されます。
この研究では、画像に一致する可能性のあるキャプションの多様性をモデル化する潜在言語画像事前トレーニングである Llip を導入します。
Llip のビジョン エンコーダは、テキストから得られた情報に基づいて調整することにより、最終的な表現に混合される一連の視覚的特徴を出力します。
大規模なエンコーダを使用した場合でも、Llip がさまざまなタスクにおいて CLIP や SigLIP などのコンテキスト化されていないベースラインよりも優れたパフォーマンスを発揮することを示します。
Llip は、ViT-G/14 エンコーダーを使用してゼロショット分類ベンチマークを平均 2.9% 向上させます。
具体的には、Llip は ImageNet 上で 83.5% のゼロショット トップ 1 精度を達成し、同様のサイズの CLIP を 1.4% 上回っています。
また、MS-COCO でのゼロショット検索が 6.0% 改善されたことも実証しています。
私たちは、このメソッドによって導入されたコンポーネントの包括的な分析を提供し、Llip がより豊かな視覚表現につながることを実証します。
要約(オリジナル)
There are a thousand ways to caption an image. Contrastive Language Pretraining (CLIP) on the other hand, works by mapping an image and its caption to a single vector — limiting how well CLIP-like models can represent the diverse ways to describe an image. In this work, we introduce Llip, Latent Language Image Pretraining, which models the diversity of captions that could match an image. Llip’s vision encoder outputs a set of visual features that are mixed into a final representation by conditioning on information derived from the text. We show that Llip outperforms non-contextualized baselines like CLIP and SigLIP on a variety of tasks even with large-scale encoders. Llip improves zero-shot classification by an average of 2.9% zero-shot classification benchmarks with a ViT-G/14 encoder. Specifically, Llip attains a zero-shot top-1 accuracy of 83.5% on ImageNet outperforming a similarly sized CLIP by 1.4%. We also demonstrate improvement on zero-shot retrieval on MS-COCO by 6.0%. We provide a comprehensive analysis of the components introduced by the method and demonstrate that Llip leads to richer visual representations.
arxiv情報
著者 | Samuel Lavoie,Polina Kirichenko,Mark Ibrahim,Mahmoud Assran,Andrew Gordon Wilson,Aaron Courville,Nicolas Ballas |
発行日 | 2024-05-14 12:48:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google