Fast Feedforward Networks

要約

フィードフォワード ネットワークに代わる対数時間の高速フィードフォワード (FFF) アーキテクチャを導入することで、層のサイズとその推論コストの間の線形リンクを断ち切ります。
FFF はフィードフォワード ネットワークより最大 220 倍、エキスパート混合ネットワークより最大 6 倍高速であり、ノイズのない条件付き実行のおかげでエキスパート混合ネットワークよりも優れたトレーニング特性を示すことを実証します。
FFF を限界まで押し上げると、予測パフォーマンスの 94.2% を維持しながら、ビジョン トランスフォーマーの推論に層ニューロンのわずか 1% しか使用できないことがわかりました。

要約(オリジナル)

We break the linear link between the layer size and its inference cost by introducing the fast feedforward (FFF) architecture, a log-time alternative to feedforward networks. We demonstrate that FFFs are up to 220x faster than feedforward networks, up to 6x faster than mixture-of-experts networks, and exhibit better training properties than mixtures of experts thanks to noiseless conditional execution. Pushing FFFs to the limit, we show that they can use as little as 1% of layer neurons for inference in vision transformers while preserving 94.2% of predictive performance.

arxiv情報

著者 Peter Belcak,Roger Wattenhofer
発行日 2023-09-18 17:50:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.PF パーマリンク