BoRA: Bayesian Hierarchical Low-Rank Adaption for Multi-Task Large Language Models

要約

この論文では、マルチタスク大規模言語モデル (LLM) を微調整するための新しい方法であるベイジアン階層的低ランク適応 (BoRA) を紹介します。
低ランク適応 (LoRA) などの現在の微調整アプローチは、トレーニング パラメーターとメモリ使用量の削減において非常に優れたパフォーマンスを発揮しますが、複数の同様のタスクに適用すると制限に直面します。
実務者は通常、タスクごとに個別のモデルをトレーニングするか、すべてのタスクに対して単一のモデルをトレーニングするかを選択する必要がありますが、どちらの場合も専門化とデータ活用においてトレードオフが伴います。
BoRA は、タスクがグローバルな階層事前分布を通じて情報を共有できるようにするベイジアン階層モデルを活用することで、これらのトレードオフに対処します。
これにより、データが限られたタスクは、関連するタスクから派生した全体構造から恩恵を受けることができると同時に、より多くのデータを含むタスクを専門化できるようになります。
私たちの実験結果は、BoRA が個別モデルと統合モデルの両方のアプローチよりも優れたパフォーマンスを発揮し、タスク全体での複雑性の低減とより優れた一般化を実現することを示しています。
この方法は、マルチタスク LLM 微調整のためのスケーラブルで効率的なソリューションを提供し、さまざまなアプリケーションに実用的な意味をもたらします。

要約(オリジナル)

This paper introduces Bayesian Hierarchical Low-Rank Adaption (BoRA), a novel method for finetuning multi-task Large Language Models (LLMs). Current finetuning approaches, such as Low-Rank Adaption (LoRA), perform exeptionally well in reducing training parameters and memory usage but face limitations when applied to multiple similar tasks. Practitioners usually have to choose between training separate models for each task or a single model for all tasks, both of which come with trade-offs in specialization and data utilization. BoRA addresses these trade-offs by leveraging a Bayesian hierarchical model that allows tasks to share information through global hierarchical priors. This enables tasks with limited data to benefit from the overall structure derived from related tasks while allowing tasks with more data to specialize. Our experimental results show that BoRA outperforms both individual and unified model approaches, achieving lower perplexity and better generalization across tasks. This method provides a scalable and efficient solution for multi-task LLM finetuning, with significant practical implications for diverse applications.

arxiv情報

著者 Simen Eide,Arnoldo Frigessi
発行日 2025-01-07 13:28:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG, stat.ML パーマリンク