Continual Transformers: Redundancy-Free Attention for Online Inference

要約

一般的な形式のトランスフォーマーは、一度に 1 つのトークンではなく、トークン シーケンス全体を操作するように本質的に制限されています。
その結果、時系列データのオンライン推論中にそれらを使用すると、連続するトークン シーケンスが重複するため、かなりの冗長性が伴います。
この作業では、Transformers が継続的な入力ストリームに対して効率的なオンライン トークンごとの推論を実行できるようにする、Scaled Dot-Product Attention の新しい定式化を提案します。
重要なことは、私たちの変更は純粋に計算の順序であり、出力と学習された重みは元の Transformer Encoder のものと同じです。
THUMOS14、TVSeries、および GTZAN データセットでの実験により、当社の Continual Transformer Encoder を検証し、顕著な結果をもたらしました。当社の継続的な 1 ブロックおよび 2 ブロック アーキテクチャは、予測パフォーマンスを維持しながら、予測ごとの浮動小数点演算をそれぞれ最大 63 倍および 2.6 倍削減します。
.

要約(オリジナル)

Transformers in their common form are inherently limited to operate on whole token sequences rather than on one token at a time. Consequently, their use during online inference on time-series data entails considerable redundancy due to the overlap in successive token sequences. In this work, we propose novel formulations of the Scaled Dot-Product Attention, which enable Transformers to perform efficient online token-by-token inference on a continual input stream. Importantly, our modifications are purely to the order of computations, while the outputs and learned weights are identical to those of the original Transformer Encoder. We validate our Continual Transformer Encoder with experiments on the THUMOS14, TVSeries and GTZAN datasets with remarkable results: Our Continual one- and two-block architectures reduce the floating point operations per prediction by up to 63x and 2.6x, respectively, while retaining predictive performance.

arxiv情報

著者 Lukas Hedegaard,Arian Bakhtiarnia,Alexandros Iosifidis
発行日 2023-01-24 07:42:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク