要約
深層学習の進歩は、ますます多くのパラメーターを使用してモデルをトレーニングすることによって推進されており、その結果、計算需要も増大します。
この問題に対処するために、入力の最も関連性の高い部分にのみ計算を動的に割り当てる混合深度 (MoD) モデルが提案されています。これにより、推論とトレーニング中に高効率で大きなパラメータのモデルを展開できるようになります。
これらの MoD モデルは、ルーティング メカニズムを利用して、どのトークンをレイヤーで処理するかスキップするかを決定します。
ただし、従来の MoD モデルは、トレーニングが困難なルーティング専用の追加ネットワーク層を採用しており、モデルに複雑さと展開のオーバーヘッドが追加されます。
この論文では、現在の層内のルーティング決定に前の層の既存のアテンション マップを活用する、新しいアテンションベースのルーティング メカニズム A-MoD を紹介します。
標準ルーティングと比較して、A-MoD では追加のトレーニング可能なパラメーターが導入されず、事前トレーニングされたトランスフォーマー モデルから簡単に適応できるため、より効率的なトレーニングが可能になります。
さらに、MoD モデルのパフォーマンスを向上させることができます。
たとえば、標準ルーティングや isoFLOP ViT ベースラインと比較して、ImageNet では最大 2% 高い精度が観察されています。
さらに、A-MoD は MoD トレーニングの収束を改善し、最大 2 倍の高速な転移学習を実現します。
要約(オリジナル)
Advancements in deep learning are driven by training models with increasingly larger numbers of parameters, which in turn heightens the computational demands. To address this issue, Mixture-of-Depths (MoD) models have been proposed to dynamically assign computations only to the most relevant parts of the inputs, thereby enabling the deployment of large-parameter models with high efficiency during inference and training. These MoD models utilize a routing mechanism to determine which tokens should be processed by a layer, or skipped. However, conventional MoD models employ additional network layers specifically for the routing which are difficult to train, and add complexity and deployment overhead to the model. In this paper, we introduce a novel attention-based routing mechanism A-MoD that leverages the existing attention map of the preceding layer for routing decisions within the current layer. Compared to standard routing, A-MoD allows for more efficient training as it introduces no additional trainable parameters and can be easily adapted from pretrained transformer models. Furthermore, it can increase the performance of the MoD model. For instance, we observe up to 2% higher accuracy on ImageNet compared to standard routing and isoFLOP ViT baselines. Furthermore, A-MoD improves the MoD training convergence, leading to up to 2x faster transfer learning.
arxiv情報
著者 | Advait Gadhikar,Souptik Kumar Majumdar,Niclas Popp,Piyapat Saranrittichai,Martin Rapp,Lukas Schott |
発行日 | 2024-12-30 11:25:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google