要約
自己回帰変換器は、ビデオ生成において目覚ましい成功を収めています。
ただし、トランスフォーマーは、自己注意の二次的な複雑さのためにビデオの長期的な依存関係を直接学習することを禁止されており、本質的に、自己回帰プロセスによる遅い推論時間とエラー伝播に悩まされています。
この論文では、ビデオの長期的な依存関係のエンドツーエンドの学習と高速な推論のために、メモリ効率の高い双方向トランスフォーマー (MeBT) を提案します。
双方向トランスフォーマーの最近の進歩に基づいて、私たちの方法は、部分的に観測されたパッチからビデオの時空間ボリューム全体を並行してデコードすることを学習します。
提案された変換器は、観測可能なコンテキスト トークンを一定数の潜在トークンに射影し、クロスアテンションを通じてマスクされたトークンをデコードするように調整することにより、エンコードとデコードの両方で線形時間の複雑さを実現します。
線形の複雑さと双方向モデリングによって強化された私たちの方法は、品質と速度の両方で適度に長いビデオを生成するための自己回帰トランスフォーマーよりも大幅な改善を示しています。
要約(オリジナル)
Autoregressive transformers have shown remarkable success in video generation. However, the transformers are prohibited from directly learning the long-term dependency in videos due to the quadratic complexity of self-attention, and inherently suffering from slow inference time and error propagation due to the autoregressive process. In this paper, we propose Memory-efficient Bidirectional Transformer (MeBT) for end-to-end learning of long-term dependency in videos and fast inference. Based on recent advances in bidirectional transformers, our method learns to decode the entire spatio-temporal volume of a video in parallel from partially observed patches. The proposed transformer achieves a linear time complexity in both encoding and decoding, by projecting observable context tokens into a fixed number of latent tokens and conditioning them to decode the masked tokens through the cross-attention. Empowered by linear complexity and bidirectional modeling, our method demonstrates significant improvement over the autoregressive Transformers for generating moderately long videos in both quality and speed.
arxiv情報
著者 | Jaehoon Yoo,Semin Kim,Doyup Lee,Chiheon Kim,Seunghoon Hong |
発行日 | 2023-03-20 16:35:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google