Approximated Prompt Tuning for Vision-Language Pre-trained Models

要約

即時チューニングは、タスク固有のトークンを追加することで、大規模な事前トレーニング済みモデルを下流のタスクにデプロイするためのパラメーター効率の高い方法です。
ビジョン言語事前トレーニング (VLP) モデルに関しては、プロンプト チューニングでは、事前トレーニングと下流タスクの間のギャップを埋めるために大量の学習可能なトークンが必要になることが多く、これにより、すでに高い計算オーバーヘッドが大幅に悪化します。
この論文では、Transformer ベースの VLP モデルのプロンプト チューニングの原理を再検討し、ソフト プロンプト トークンの影響が独立した情報拡散ステップによって実際に近似できることを明らかにします。これにより、高価なグローバル アテンション モデリングが回避され、計算の複雑さが軽減されます。
かなりの程度。
この発見に基づいて、効率的な VL 転移学習に向けた新しい近似プロンプト チューニング (APT) アプローチを提案します。
APT を検証するために、APT を 2 つの代表的な VLP モデル、つまり ViLT と METER に適用し、多数の下流タスクで広範な実験を実施します。
一方、APT の一般化は、画像分類については CLIP、テキストから画像への生成については StableDiffusion についても検証されています。
実験結果は、従来のプロンプト チューニング手法と比べて、APT の優れたパフォーマンス向上と計算効率 (例: METER での +7.01% の精度と -82.30% の追加計算オーバーヘッド) を示すだけでなく、他のパラメータ効率の高い転移学習と比較した APT の利点も確認しています。
近づいてきます。

要約(オリジナル)

Prompt tuning is a parameter-efficient way to deploy large-scale pre-trained models to downstream tasks by adding task-specific tokens. In terms of vision-language pre-trained (VLP) models, prompt tuning often requires a large number of learnable tokens to bridge the gap between the pre-training and downstream tasks, which greatly exacerbates the already high computational overhead. In this paper, we revisit the principle of prompt tuning for Transformer-based VLP models, and reveal that the impact of soft prompt tokens can be actually approximated via independent information diffusion steps, thereby avoiding the expensive global attention modeling and reducing the computational complexity to a large extent. Based on this finding, we propose a novel Approximated Prompt Tuning (APT) approach towards efficient VL transfer learning. To validate APT, we apply it to two representative VLP models, namely ViLT and METER, and conduct extensive experiments on a bunch of downstream tasks. Meanwhile, the generalization of APT is also validated on CLIP for image classification and StableDiffusion for text-to-image generation. The experimental results not only show the superior performance gains and computation efficiency of APT against the conventional prompt tuning methods, e.g., +7.01% accuracy and -82.30% additional computation overhead on METER, but also confirm its merits over other parameter-efficient transfer learning approaches.

arxiv情報

著者 Qiong Wu,Shubin Huang,Yiyi Zhou,Pingyang Dai,Annan Shu,Guannan Jiang,Rongrong Ji
発行日 2023-08-21 12:18:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク