LoraMap: Harnessing the Power of LoRA Connections

要約

大規模言語モデル (LLM) は、ファクトチェックを通じて幻覚を軽減し、低ランク適応 (LoRA) などのパラメーター効率の高い手法で大幅な計算オーバーヘッドを克服することで利益を得ることができます。
いくつかの研究では複数の LoRA の並列統合を検討していますが、これらのアプローチではそれらの間の接続に注意を払う必要があります。
この論文では、複数の LoRA 間の接続を確立する方法を調査します。
私たちは事実確認に合わせた 3 つの推論データセットを作成し、個々の LoRA を微調整して、LoRA が多様な視点から見て推論できるようにします。
次に、これらの推論 LoRA を割り当てる戦略を検討し、それらの間の接続をマップするアプローチである LoraMap を紹介します。
ファクトチェックタスクの結果は、LoraMap のパフォーマンスが既存の LoRA 構成方法である LoraHub よりも優れていることを示しています。
LoraMap は、LoRA を連結してさらに微調整する LoraConcat よりも大幅に少ないパラメーターで優れたパフォーマンスを発揮します。

要約(オリジナル)

Large Language Models (LLMs) can benefit from mitigating hallucinations through fact-checking and overcoming substantial computational overhead with parameter-efficient techniques such as Low-Rank Adaptation (LoRA). While some studies have explored the parallel integration of multiple LoRAs, these approaches need attention to the connections between them. This paper investigates methods to establish connections among multiple LoRAs. We create three reasoning datasets tailored to fact-checking and fine-tune individual LoRAs, allowing them to view and reason from diverse perspectives. Then, we explore strategies for allocating these reasoning LoRAs and introduce LoraMap, an approach to map connections between them. The results on the fact-checking task demonstrate that the performance of LoraMap is superior to LoraHub, an existing LoRA composition method. LoraMap also outperforms with significantly fewer parameters than LoraConcat, which concatenates LoRAs and further fine-tunes them.

arxiv情報

著者 Hyeryun Park,Jeongwon Kwak,Dongsuk Jang,Sumin Park,Jinwook Choi
発行日 2024-08-29 05:02:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク