Merge, Then Compress: Demystify Efficient SMoE with Hints from Its Routing Policy

要約

まばらに活性化された専門家混合 (SMoE) は、ニューラル ネットワークの学習能力をスケールアップする見込みがあることを示していますが、次のような問題があります。(a) ネットワーク層がエキスパートとして複数のコピーに重複するため、メモリ使用量が高くなる。
(b) 一般的な学習ベースのルーティング ポリシーが表現の崩壊に悩まされるため、エキスパートの冗長性。
したがって、バニラの SMoE モデルは、特にリソースに制約のあるダウンストリーム シナリオの場合、メモリ効率が低く、スケーラブルではありません。
このペーパーでは、専門家の情報を統合することでコンパクトな SMoE モデルを作成できるか?
複数の専門家を統合して、少数ながら知識豊富な専門家にするための最良のレシピは何でしょうか?
私たちのパイロット調査により、従来のモデル結合手法は、SMoE のこのような専門家による結合には効果的ではないことが明らかになりました。
考えられる理由は次のとおりです。(1) 冗長な情報が重要な専門家に影を落としている。
(2) 各専門家をすべて揃えるための適切なニューロンの順列が欠落しています。
これに対処するために、ルーティング統計を活用してエキスパート マージをガイドする M-SMoE を提案します。
具体的には、専門家向けのニューロン順列の調整から始まります。
次に、有力な専門家とその「グループメンバー」が形成されます。
最後に、各エキスパートのアクティブ化頻度をマージの重みとして利用することにより、すべてのエキスパート グループが単一のエキスパートにマージされ、重要でないエキスパートの影響が軽減されます。
さらに、提案したマージにより、マージされたエキスパートの重み空間の低次元化が促進され、自然に追加の圧縮への道が開かれることがわかりました。
したがって、最後の方法である MC-SMoE (つまり、SMoE をマージしてから圧縮) は、マージされたエキスパートを低ランクで構造的に疎な代替案にさらに分解します。
8 つのベンチマークにわたる広範な実験により、MC-SMoE の有効性が検証されています。
たとえば、当社の MC-SMoE は、実質的にパフォーマンスを損なうことなく、最大 80% のメモリと 20% の FLOP 削減を達成します。

要約(オリジナル)

Sparsely activated Mixture-of-Experts (SMoE) has shown promise to scale up the learning capacity of neural networks, however, they have issues like (a) High Memory Usage, due to duplication of the network layers into multiple copies as experts; and (b) Redundancy in Experts, as common learning-based routing policies suffer from representational collapse. Therefore, vanilla SMoE models are memory inefficient and non-scalable, especially for resource-constrained downstream scenarios. In this paper, we ask: Can we craft a compact SMoE model by consolidating expert information? What is the best recipe to merge multiple experts into fewer but more knowledgeable experts? Our pilot investigation reveals that conventional model merging methods fail to be effective in such expert merging for SMoE. The potential reasons are: (1) redundant information overshadows critical experts; (2) appropriate neuron permutation for each expert is missing to bring all of them in alignment. To address this, we propose M-SMoE, which leverages routing statistics to guide expert merging. Specifically, it starts with neuron permutation alignment for experts; then, dominant experts and their ‘group members’ are formed; lastly, every expert group is merged into a single expert by utilizing each expert’s activation frequency as their weight for merging, thus diminishing the impact of insignificant experts. Moreover, we observed that our proposed merging promotes a low dimensionality in the merged expert’s weight space, naturally paving the way for additional compression. Hence, our final method, MC-SMoE (i.e., Merge, then Compress SMoE), further decomposes the merged experts into low-rank and structural sparse alternatives. Extensive experiments across 8 benchmarks validate the effectiveness of MC-SMoE. For instance, our MC-SMoE achieves up to 80% memory and a 20% FLOPs reduction, with virtually no loss in performance.

arxiv情報

著者 Pingzhi Li,Zhenyu Zhang,Prateek Yadav,Yi-Lin Sung,Yu Cheng,Mohit Bansal,Tianlong Chen
発行日 2024-03-14 11:01:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク