要約
即時学習は、さまざまな下流タスク向けに CLIP などの基本モデルを微調整するための効率的な代替手段として登場しました。
従来、タスク固有の目標、つまりクロスエントロピー損失を使用してトレーニングされたプロンプトは、下流のデータ分布に過剰適合する傾向があり、凍結された CLIP からタスクに依存しない一般的な特徴をキャプチャするのが困難であることがわかりました。
これにより、モデル本来の汎化機能が失われます。
この問題に対処するために、私たちの研究では PromptSRC (Prompting with Self-regulatory Constraints) と呼ばれるプロンプト用の自己正規化フレームワークを導入しています。
PromptSRC は、次の 3 つのアプローチを使用して、タスク固有の一般的な表現とタスクに依存しない一般的な表現の両方を最適化するようにプロンプトをガイドします。(a) 凍結モデルによる相互一致の最大化によるプロンプト表現の制御、(b) プロンプトの自己アンサンブルによる制御
(c) 視覚ブランチとのサンプル多様性の不均衡を軽減するために、テキストの多様性で調整します。
私たちの知る限り、これは、事前トレーニングされたモデルの特徴、プロンプト中のトレーニング軌跡、およびテキストの多様性に共同して注意を払うことで過剰適合を回避する、即時学習のための最初の正則化フレームワークです。
PromptSRC は、CLIP の一般化を損なうことなく、下流タスクのパフォーマンスを最大化する表現空間を学習するようにプロンプトを明示的に制御します。
私たちは 4 つのベンチマークで広範な実験を実行し、PromptSRC が全体的に既存の方法と比較して良好なパフォーマンスを示しました。
私たちのコードと事前トレーニングされたモデルは、https://github.com/muzairkhattak/PromptSRC で公開されています。
要約(オリジナル)
Prompt learning has emerged as an efficient alternative for fine-tuning foundational models, such as CLIP, for various downstream tasks. Conventionally trained using the task-specific objective, i.e., cross-entropy loss, prompts tend to overfit downstream data distributions and find it challenging to capture task-agnostic general features from the frozen CLIP. This leads to the loss of the model’s original generalization capability. To address this issue, our work introduces a self-regularization framework for prompting called PromptSRC (Prompting with Self-regulating Constraints). PromptSRC guides the prompts to optimize for both task-specific and task-agnostic general representations using a three-pronged approach by: (a) regulating prompted representations via mutual agreement maximization with the frozen model, (b) regulating with self-ensemble of prompts over the training trajectory to encode their complementary strengths, and (c) regulating with textual diversity to mitigate sample diversity imbalance with the visual branch. To the best of our knowledge, this is the first regularization framework for prompt learning that avoids overfitting by jointly attending to pre-trained model features, the training trajectory during prompting, and the textual diversity. PromptSRC explicitly steers the prompts to learn a representation space that maximizes performance on downstream tasks without compromising CLIP generalization. We perform extensive experiments on 4 benchmarks where PromptSRC overall performs favorably well compared to the existing methods. Our code and pre-trained models are publicly available at: https://github.com/muzairkhattak/PromptSRC.
arxiv情報
著者 | Muhammad Uzair Khattak,Syed Talal Wasim,Muzammal Naseer,Salman Khan,Ming-Hsuan Yang,Fahad Shahbaz Khan |
発行日 | 2023-08-24 16:56:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google