Connecting the Dots: Collaborative Fine-tuning for Black-Box Vision-Language Models

要約

事前に学習された視覚言語モデル(VLM)の出現に伴い、下流のタスクのためにそれらを微調整することに多大な努力が払われてきました。効率的なファインチューニング手法の設計は進歩しているものの、そのような手法はモデルのパラメータにアクセスする必要があり、モデル所有者はモデルの所有権を保護するためにモデルをブラックボックスとして提供することを選択することが多いため、困難な場合がある。この論文では、ブラックボックスVLMを下流タスクにファインチューニングするため、モデルの入力プロンプトと出力予測にのみアクセスできる、୧textbf{C}ollabo୧textbf{F}ine-textbf{T}uning(୧textbf{CraFT})アプローチを提案する。CraFTは、テキストプロンプトを学習するためのプロンプト生成モジュールと、残差スタイルで出力予測を改良するための予測改良モジュールの2つのモジュールから構成される。さらに、これらのモジュール間で一貫した最適化を促進するために、補助的な予測一貫性損失を導入する。これらのモジュールは、新しい協調学習アルゴリズムによって最適化される。15のデータセットに対する少数ショット分類の広範な実験により、CraFTの優位性を実証する。その結果、CraFTは16ショットのデータセットとわずか8,000のクエリで、約12%の適切な利得を達成した。さらに、CraFTは、ホワイトボックス手法と比較して、わずか1.62%しか犠牲にすることなく、より高速に学習し、展開のために約1/80のメモリフットプリントを使用するだけである。我々のコードは https://github.com/mrflogs/CraFT で公開されている。

要約(オリジナル)

With the emergence of pretrained vision-language models (VLMs), considerable efforts have been devoted to fine-tuning them for downstream tasks. Despite the progress made in designing efficient fine-tuning methods, such methods require access to the model’s parameters, which can be challenging as model owners often opt to provide their models as a black box to safeguard model ownership. This paper proposes a \textbf{C}ollabo\textbf{ra}tive \textbf{F}ine-\textbf{T}uning (\textbf{CraFT}) approach for fine-tuning black-box VLMs to downstream tasks, where one only has access to the input prompts and the output predictions of the model. CraFT comprises two modules, a prompt generation module for learning text prompts and a prediction refinement module for enhancing output predictions in residual style. Additionally, we introduce an auxiliary prediction-consistent loss to promote consistent optimization across these modules. These modules are optimized by a novel collaborative training algorithm. Extensive experiments on few-shot classification over 15 datasets demonstrate the superiority of CraFT. The results show that CraFT achieves a decent gain of about 12\% with 16-shot datasets and only 8,000 queries. Moreover, CraFT trains faster and uses only about 1/80 of the memory footprint for deployment, while sacrificing only 1.62\% compared to the white-box method. Our code is publicly available at https://github.com/mrflogs/CraFT .

arxiv情報

著者 Zhengbo Wang,Jian Liang,Ran He,Zilei Wang,Tieniu Tan
発行日 2024-06-03 13:22:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク