QuanTA: Efficient High-Rank Fine-Tuning of LLMs with Quantum-Informed Tensor Adaptation

要約

我々は、大規模な事前学習済み言語モデルに対して、推論オーバーヘッドを伴わない、新規で実装が容易な微調整手法である、量子情報に基づくテンソル適応(QuanTA: Quantum-informed Tensor Adaptation)を提案する。QuanTAは、量子回路構造に由来する量子的手法を活用することで、低ランク適応(LoRA)の限界を超える、効率的な高ランク微調整を可能にする。我々のアプローチは、効率的な高ランク適応を達成するための普遍性の定理とランク表現の定理によって理論的にサポートされている。実験により、QuanTAは従来の手法と比較して、常識的推論、算術推論、スケーラビリティを大幅に向上させることが実証された。さらに、QuanTAは、他のアプローチと比較して少ない訓練可能なパラメータで優れた性能を示し、さらなる改善のために既存の微調整アルゴリズムと統合するように設計することができ、大規模な言語モデルを微調整するためのスケーラブルで効率的なソリューションを提供し、自然言語処理の最先端を進める。

要約(オリジナル)

We propose Quantum-informed Tensor Adaptation (QuanTA), a novel, easy-to-implement, fine-tuning method with no inference overhead for large-scale pre-trained language models. By leveraging quantum-inspired methods derived from quantum circuit structures, QuanTA enables efficient high-rank fine-tuning, surpassing the limitations of Low-Rank Adaptation (LoRA)–low-rank approximation may fail for complicated downstream tasks. Our approach is theoretically supported by the universality theorem and the rank representation theorem to achieve efficient high-rank adaptations. Experiments demonstrate that QuanTA significantly enhances commonsense reasoning, arithmetic reasoning, and scalability compared to traditional methods. Furthermore, QuanTA shows superior performance with fewer trainable parameters compared to other approaches and can be designed to integrate with existing fine-tuning algorithms for further improvement, providing a scalable and efficient solution for fine-tuning large language models and advancing state-of-the-art in natural language processing.

arxiv情報

著者 Zhuo Chen,Rumen Dangovski,Charlotte Loh,Owen Dugan,Di Luo,Marin Soljačić
発行日 2024-11-01 14:36:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, quant-ph パーマリンク