Learning to Prompt for Vision-Language Models

要約

CLIP のような大規模な事前トレーニング済みのビジョン言語モデルは、幅広い下流タスクに転送可能な表現の学習において大きな可能性を示しています。
主に離散化されたラベルに基づく従来の表現学習とは異なり、ビジョン言語の事前トレーニングは、画像とテキストを共通の特徴空間に配置します。これにより、プロンプトを介して下流のタスクにゼロショット転送が可能になります。つまり、分類の重みはから合成されます。
関心のあるクラスを記述する自然言語。
この作業では、そのようなモデルを実際に展開するための主要な課題は迅速なエンジニアリングであることを示しています。これにはドメインの専門知識が必要であり、非常に時間がかかります。言葉遣いがわずかに変更されるため、単語の調整にかなりの時間を費やす必要があります。
パフォーマンスに大きな影響を与える可能性があります。
自然言語処理 (NLP) における即時学習研究の最近の進歩に着想を得て、コンテキスト最適化 (CoOp) を提案します。これは、特に CLIP のような視覚言語モデルを下流の画像認識に適応させるための単純なアプローチです。
具体的には、CoOp は学習可能なベクトルを使用してプロンプトのコンテキスト ワードをモデル化し、事前トレーニング済みのパラメーター全体を固定したままにします。
さまざまな画像認識タスクを処理するために、CoOp の 2 つの実装 (統合コンテキストとクラス固有のコンテキスト) を提供します。
11 のデータセットでの広範な実験を通じて、CoOp が手作りのプロンプトをまともなマージンで打ち負かすのに 1 つか 2 つのショットしか必要とせず、より多くのショット (たとえば、平均 16 ショット) でプロンプト エンジニアリングよりも大幅な改善を得ることができることを示しています。
ゲインは約 15% です (最高で 45% 以上に達します)。
学習ベースのアプローチであるにもかかわらず、CoOp は、手作りのプロンプトを使用するゼロショット モデルと比較して、優れたドメイン一般化パフォーマンスを実現します。

要約(オリジナル)

Large pre-trained vision-language models like CLIP have shown great potential in learning representations that are transferable across a wide range of downstream tasks. Different from the traditional representation learning that is based mostly on discretized labels, vision-language pre-training aligns images and texts in a common feature space, which allows zero-shot transfer to a downstream task via prompting, i.e., classification weights are synthesized from natural language describing classes of interest. In this work, we show that a major challenge for deploying such models in practice is prompt engineering, which requires domain expertise and is extremely time-consuming — one needs to spend a significant amount of time on words tuning since a slight change in wording could have a huge impact on performance. Inspired by recent advances in prompt learning research in natural language processing (NLP), we propose Context Optimization (CoOp), a simple approach specifically for adapting CLIP-like vision-language models for downstream image recognition. Concretely, CoOp models a prompt’s context words with learnable vectors while the entire pre-trained parameters are kept fixed. To handle different image recognition tasks, we provide two implementations of CoOp: unified context and class-specific context. Through extensive experiments on 11 datasets, we demonstrate that CoOp requires as few as one or two shots to beat hand-crafted prompts with a decent margin and is able to gain significant improvements over prompt engineering with more shots, e.g., with 16 shots the average gain is around 15% (with the highest reaching over 45%). Despite being a learning-based approach, CoOp achieves superb domain generalization performance compared with the zero-shot model using hand-crafted prompts.

arxiv情報

著者 Kaiyang Zhou,Jingkang Yang,Chen Change Loy,Ziwei Liu
発行日 2022-08-12 08:12:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク