要約
転移学習には、事前トレーニングされたモデルを新しい下流タスクに適応させることが含まれます。
しかし、現在の転移学習手法ではタスク関連の特徴に焦点を当てていないことが多いことが観察されています。
この研究では、転移学習のためのモデルの注意を再焦点化することを検討します。
私たちは、事前トレーニングされたバックボーンをフリーズした状態に保ち、出力でタスクに関連する特徴を選択し、それらの特徴をモデルにフィードバックして注意をタスクに向ける新しい転移学習アルゴリズムである Top-Down Attendee Steering (TOAST) を紹介します。
特定の機能。
TOAST は、注目のみに再度焦点を当てることで、少数の調整可能なパラメーターを備えながら、多くの転移学習ベンチマークで最先端の結果を達成します。
完全な微調整、LoRA、およびプロンプト チューニングと比較して、TOAST は、一連のきめ細かい視覚分類データセット全体でパフォーマンスを大幅に向上させます (例: FGVC で 81.1% -> 86.2%)。
また、TOAST は、命令に従う言語生成において、完全に微調整された Alpaca モデルや Vicuna モデルよりも優れたパフォーマンスを発揮します。
コードは https://github.com/bfshi/TOAST で入手できます。
要約(オリジナル)
Transfer learning involves adapting a pre-trained model to novel downstream tasks. However, we observe that current transfer learning methods often fail to focus on task-relevant features. In this work, we explore refocusing model attention for transfer learning. We introduce Top-Down Attention Steering (TOAST), a novel transfer learning algorithm that keeps the pre-trained backbone frozen, selects task-relevant features in the output, and feeds those features back to the model to steer the attention to the task-specific features. By refocusing the attention only, TOAST achieves state-of-the-art results on a number of transfer learning benchmarks, while having a small number of tunable parameters. Compared to fully fine-tuning, LoRA, and prompt tuning, TOAST substantially improves performance across a range of fine-grained visual classification datasets (e.g., 81.1% -> 86.2% on FGVC). TOAST also outperforms the fully fine-tuned Alpaca and Vicuna models on instruction-following language generation. Code is available at https://github.com/bfshi/TOAST.
arxiv情報
著者 | Baifeng Shi,Siyu Gai,Trevor Darrell,Xin Wang |
発行日 | 2023-07-11 17:57:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google