要約
事前トレーニング済み言語モデル (PLM) のサイズが増大し続ける中、微調整にかかる莫大なコストを補うために、パラメーター効率の高い転移学習手法が最近数多く提案されています。
大規模な事前トレーニング済み言語モデル (PLM) やさまざまなパラメーター効率の高い転移学習 (PETL) 手法がさまざまなベンチマークで達成した素晴らしい結果にもかかわらず、それらが分布的にシフトされた入力を効果的に処理できるかどうかは依然として不明です。
この研究では、PLM のサイズが拡大したり、転送方法が変更されたりするにつれて、配布外 (OOD) を検出する能力がどのように変化するかを体系的に調査します。
具体的には、微調整、アダプター、LoRA、プレフィックス調整を含むさまざまな PETL 手法を、それぞれが異なるスケールのさまざまな言語モデルを利用する 3 つの異なる意図分類タスクで評価しました。
要約(オリジナル)
As the size of the pre-trained language model (PLM) continues to increase, numerous parameter-efficient transfer learning methods have been proposed recently to compensate for the tremendous cost of fine-tuning. Despite the impressive results achieved by large pre-trained language models (PLMs) and various parameter-efficient transfer learning (PETL) methods on sundry benchmarks, it remains unclear if they can handle inputs that have been distributionally shifted effectively. In this study, we systematically explore how the ability to detect out-of-distribution (OOD) changes as the size of the PLM grows or the transfer methods are altered. Specifically, we evaluated various PETL techniques, including fine-tuning, Adapter, LoRA, and prefix-tuning, on three different intention classification tasks, each utilizing various language models with different scales.
arxiv情報
著者 | Hyunsoo Cho,Choonghyun Park,Junyeop Kim,Hyuhng Joon Kim,Kang Min Yoo,Sang-goo Lee |
発行日 | 2023-06-09 05:06:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google