LoraHub: Efficient Cross-Task Generalization via Dynamic LoRA Composition

要約

低ランク適応 (LoRA) は、新しいタスク向けに大規模言語モデル (LLM) を微調整するためによく使用されます。
この論文では、クロスタスクの一般化のための LoRA の構成可能性を調査し、目に見えないタスクで適応可能なパフォーマンスを達成することを目的として、与えられた多様なタスクで訓練された LoRA モジュールを目的的に組み立てるために考案された戦略的フレームワークである LoraHub を紹介します。
LoraHub は、新しいタスクからのほんの数例を使用して、複数の LoRA モジュールを柔軟に組み合わせることを可能にし、人間の専門知識の必要性を排除します。
特に、この合成には追加のモデル パラメーターも勾配も必要ありません。
Big-Bench Hard (BBH) ベンチマークから得られた実証結果は、LoraHub が、各推論入力に加えてコンテキスト内のサンプルを必要とせずに、少数ショットのシナリオでインコンテキスト学習のパフォーマンスを効果的に模倣できることを示唆しています。
私たちの研究の重要な貢献は、ユーザーがトレーニング済みの LoRA モジュールを共有できる、それによって新しいタスクへの適用を容易にする LoRA のコミュニティの育成です。
このリソースにより、本番環境の LLM だけでなく一般インテリジェンスへのアクセスが広がり、その進歩が促進されることが期待されます。
コードは https://github.com/sail-sg/lorahub で入手できます。

要約(オリジナル)

Low-rank adaptations (LoRA) are often employed to fine-tune large language models (LLMs) for new tasks. This paper investigates LoRA composability for cross-task generalization and introduces LoraHub, a strategic framework devised for the purposive assembly of LoRA modules trained on diverse given tasks, with the objective of achieving adaptable performance on unseen tasks. With just a few examples from a novel task, LoraHub enables the fluid combination of multiple LoRA modules, eradicating the need for human expertise. Notably, the composition requires neither additional model parameters nor gradients. Our empirical results, derived from the Big-Bench Hard (BBH) benchmark, suggest that LoraHub can effectively mimic the performance of in-context learning in few-shot scenarios, excluding the necessity of in-context examples alongside each inference input. A significant contribution of our research is the fostering of a community for LoRA, where users can share their trained LoRA modules, thereby facilitating their application to new tasks. We anticipate this resource will widen access to and spur advancements in general intelligence as well as LLMs in production. Code will be available at https://github.com/sail-sg/lorahub.

arxiv情報

著者 Chengsong Huang,Qian Liu,Bill Yuchen Lin,Tianyu Pang,Chao Du,Min Lin
発行日 2023-07-25 05:39:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク