Temporal Attention Unit: Towards Efficient Spatiotemporal Predictive Learning

要約

時空間予測学習は、過去のフレームから学習して未来のフレームを生成することを目的としています。
この論文では、既存の方法を調査し、空間エンコーダとデコーダがフレーム内の特徴をキャプチャし、中間の時間モジュールがフレーム間の相関をキャッチする時空間予測学習の一般的なフレームワークを提示します。
主流の方法では、長期的な一時的な依存関係を取得するために再帰ユニットを使用していますが、並列化できないアーキテクチャのために計算効率が低いという問題があります。
時間モジュールを並列化するために、時間的注意をフレーム内静的注意とフレーム間動的注意に分解する時間的注意ユニット(TAU)を提案します。
さらに、平均二乗エラー損失はフレーム内エラーに焦点を当てていますが、フレーム間の変動を考慮に入れるために、新しい微分発散正則化を導入しています。
広範な実験は、提案された方法により、派生モデルがさまざまな時空間予測ベンチマークで競争力のあるパフォーマンスを達成できることを示しています。

要約(オリジナル)

Spatiotemporal predictive learning aims to generate future frames by learning from historical frames. In this paper, we investigate existing methods and present a general framework of spatiotemporal predictive learning, in which the spatial encoder and decoder capture intra-frame features and the middle temporal module catches inter-frame correlations. While the mainstream methods employ recurrent units to capture long-term temporal dependencies, they suffer from low computational efficiency due to their unparallelizable architectures. To parallelize the temporal module, we propose the Temporal Attention Unit (TAU), which decomposes the temporal attention into intra-frame statical attention and inter-frame dynamical attention. Moreover, while the mean squared error loss focuses on intra-frame errors, we introduce a novel differential divergence regularization to take inter-frame variations into account. Extensive experiments demonstrate that the proposed method enables the derived model to achieve competitive performance on various spatiotemporal prediction benchmarks.

arxiv情報

著者 Cheng Tan,Zhangyang Gao,Lirong Wu,Yongjie Xu,Jun Xia,Siyuan Li,Stan Z. Li
発行日 2023-03-17 13:25:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク