要約
大規模言語モデル (LLM) を特定のアプリケーションに合わせて調整するには、微調整を通じて LLM を調整することが不可欠です。
したがって、調整プロセス中に LLM が何を学習するかを理解することが重要です。
最近の研究では、調整によって主にモデルの基礎的な知識ではなくモデルのプレゼンテーション スタイルが調整されることが示唆されており、モデルの特定のコンポーネントのみが大きな影響を受けることが示されています。
LLM アライメントをより深く掘り下げるために、LLM 内のどの層がアライメント プロセスにとって最も重要であるかを特定し、それによってアライメントがモデルの動作にどのような影響を与えるかを詳細なレベルで明らかにすることを提案します。
我々は、LLM アライメント (ILA) にとって重要な層を特定するための新しいアプローチを提案します。
これには、LoRA アルゴリズムの各増分重み行列のバイナリ マスクを学習し、各層の重要性を示すことが含まれます。
ILA は、さまざまな位置合わせデータセットにわたって重要なレイヤーを一貫して識別し、データセットが大幅に異なる場合でもほぼ 90% が重複し、LLM アライメントの基本パターンを強調します。
実験結果は、非必須レイヤーを凍結するとモデル全体のパフォーマンスが向上し、最も重要なレイヤーを選択的に調整することで、パフォーマンスの損失を最小限に抑えながら微調整の効率が大幅に向上することを示しています。
要約(オリジナル)
Aligning large language models (LLMs) through fine-tuning is essential for tailoring them to specific applications. Therefore, understanding what LLMs learn during the alignment process is crucial. Recent studies suggest that alignment primarily adjusts a model’s presentation style rather than its foundational knowledge, indicating that only certain components of the model are significantly impacted. To delve deeper into LLM alignment, we propose to identify which layers within LLMs are most critical to the alignment process, thereby uncovering how alignment influences model behavior at a granular level. We propose a novel approach to identify the important layers for LLM alignment (ILA). It involves learning a binary mask for each incremental weight matrix in the LoRA algorithm, indicating the significance of each layer. ILA consistently identifies important layers across various alignment datasets, with nearly 90% overlap even with substantial dataset differences, highlighting fundamental patterns in LLM alignment. Experimental results indicate that freezing non-essential layers improves overall model performance, while selectively tuning the most critical layers significantly enhances fine-tuning efficiency with minimal performance loss.
arxiv情報
著者 | Guangyuan Shi,Zexin Lu,Xiaoyu Dong,Wenlong Zhang,Xuanyu Zhang,Yujie Feng,Xiao-Ming Wu |
発行日 | 2024-10-23 13:47:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google