要約
トランスベースのモデルのエコシステムは、広範なデータを備えた大規模なモデルを構築することにより確立されています。
パラメーター効率の高い微調整(PEFT)は、効果的なパフォーマンスを達成しながら、これらのモデルをダウンストリームタスクに展開するための重要な技術です。
最近、State Space Model(SSM)ベースのモデルであるMambaは、変圧器に代わる潜在的な代替品として注目を集めています。
多くの大規模なMambaベースのモデルが提案されていますが、事前に訓練されたMambaベースのモデルをダウンストリームタスクに効率的に適応させることは未踏のままです。
この論文では、MambaのPEFTメソッドの探索的分析を実施します。
Mambaに適用した場合、変圧器の既存のPEFTメソッドの有効性を調査します。
また、これらの方法を変更して、Mambaアーキテクチャとより適切に調整します。
さらに、Mambaの特徴的な構造を活用する新しいMamba固有のPEFTメソッドを提案します。
私たちの実験は、PEFTがトランスよりもMAMBAに対してより効果的に機能することを示しています。
最後に、複数のPEFTメソッドを効果的に組み合わせて、以前の作業よりも優れたフレームワークを提供する方法を示します。
再現性を確保するために、公開後にコードをリリースします。
要約(オリジナル)
An ecosystem of Transformer-based models has been established by building large models with extensive data. Parameter-efficient fine-tuning (PEFT) is a crucial technology for deploying these models to downstream tasks with minimal cost while achieving effective performance. Recently, Mamba, a State Space Model (SSM)-based model, has attracted attention as a potential alternative to Transformers. While many large-scale Mamba-based models have been proposed, efficiently adapting pre-trained Mamba-based models to downstream tasks remains unexplored. In this paper, we conduct an exploratory analysis of PEFT methods for Mamba. We investigate the effectiveness of existing PEFT methods for Transformers when applied to Mamba. We also modify these methods to better align with the Mamba architecture. Additionally, we propose new Mamba-specific PEFT methods that leverage the distinctive structure of Mamba. Our experiments indicate that PEFT performs more effectively for Mamba than Transformers. Lastly, we demonstrate how to effectively combine multiple PEFT methods and provide a framework that outperforms previous works. To ensure reproducibility, we will release the code after publication.
arxiv情報
著者 | Masakazu Yoshimura,Teruaki Hayashi,Yota Maeda |
発行日 | 2025-04-01 08:41:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google