UniAdapter: Unified Parameter-Efficient Transfer Learning for Cross-modal Modeling

要約

大規模なビジョン言語の事前トレーニング済みモデルは、さまざまなダウンストリーム タスクへの有望な転送可能性を示しています。
これらの基盤モデルのサイズとダウンストリーム タスクの数が増加するにつれて、計算コストとストレージ コストが高くなるため、標準の完全な微調整パラダイムは維持できなくなります。
このホワイト ペーパーでは、UniAdapter を提案します。これは、事前にトレーニングされたビジョン言語モデルでのパラメーター効率の高いクロスモーダル適応のために、ユニモーダル アダプターとマルチモーダル アダプターを統合します。
具体的には、アダプターはさまざまなモダリティとその相互作用に分散され、調整可能なパラメーターの総数は部分的な重みの共有によって削減されます。
統一された知識共有設計により、さまざまなダウンストリーム タスクに役立つ強力なクロスモーダル表現が可能になり、事前トレーニング済みモデルの 1.0% ~ 2.0% の調整可能なパラメーターのみが必要になります。
6 つのクロスモーダル ダウンストリーム ベンチマーク (ビデオ テキスト検索、画像テキスト検索、VideoQA、および VQA を含む) に関する大規模な実験では、ほとんどの場合、UniAdapter が最先端の技術よりも優れているだけでなく、完全なものよりも優れていることが示されています。
微調整戦略。
特に、MSRVTT 検索タスクでは、UniAdapter は 2.2% のモデル パラメーターで 49.7% のリコール@1 を達成し、最新の競合他社を 2.0% 上回っています。
コードとモデルは https://github.com/RERV/UniAdapter で入手できます。

要約(オリジナル)

Large-scale vision-language pre-trained models have shown promising transferability to various downstream tasks. As the size of these foundation models and the number of downstream tasks grow, the standard full fine-tuning paradigm becomes unsustainable due to heavy computational and storage costs. This paper proposes UniAdapter, which unifies unimodal and multimodal adapters for parameter-efficient cross-modal adaptation on pre-trained vision-language models. Specifically, adapters are distributed to different modalities and their interactions, with the total number of tunable parameters reduced by partial weight sharing. The unified and knowledge-sharing design enables powerful cross-modal representations that can benefit various downstream tasks, requiring only 1.0%-2.0% tunable parameters of the pre-trained model. Extensive experiments on 6 cross-modal downstream benchmarks (including video-text retrieval, image-text retrieval, VideoQA, and VQA) show that in most cases, UniAdapter not only outperforms the state-of-the-arts, but even beats the full fine-tuning strategy. Particularly, on the MSRVTT retrieval task, UniAdapter achieves 49.7% recall@1 with 2.2% model parameters, outperforming the latest competitors by 2.0%. The code and models are available at https://github.com/RERV/UniAdapter.

arxiv情報

著者 Haoyu Lu,Mingyu Ding,Yuqi Huo,Guoxing Yang,Zhiwu Lu,Masayoshi Tomizuka,Wei Zhan
発行日 2023-02-13 18:59:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CV パーマリンク