PTCT: Patches with 3D-Temporal Convolutional Transformer Network for Precipitation Nowcasting

要約

降水ナウキャストは、主にレーダーエコーシーケンスの予測に依存する、短期間の将来の降雨強度を予測することです。
畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)は、レーダーエコーフレームの生成に広く使用されていますが、それぞれ誘導バイアス(つまり、並進不変性と局所性)と連続性に悩まされています。
最近、Transformer構造の大きな可能性のために、Transformerベースの方法も大きな注目を集めていますが、短期間の依存関係と自己回帰特性は無視されています。
この論文では、3D-temporal convolutional Transformer network(PTCT)を使用したTransformer名前付きパッチのバリアントを提案します。ここでは、元のフレームを複数のパッチに分割して誘導バイアスの制約を取り除き、3D-temporalconvolutionを使用して短期間のキャプチャを行います。
依存関係を効率的に。
トレーニング後、PTCTの推論は、生成されたレーダーエコーフレームの品質を保証するために自己回帰的な方法で実行されます。
アルゴリズムを検証するために、2つのレーダーエコーデータセット(レーダーエコー広州とHKO-7)で実験を行います。
実験結果は、PTCTが既存の方法と比較して最先端の(SOTA)性能を達成することを示しています。

要約(オリジナル)

Precipitation nowcasting is to predict the future rainfall intensity over a short period of time, which mainly relies on the prediction of radar echo sequences. Though convolutional neural network (CNN) and recurrent neural network (RNN) are widely used to generate radar echo frames, they suffer from inductive bias (i.e., translation invariance and locality) and seriality, respectively. Recently, Transformer-based methods also gain much attention due to the great potential of Transformer structure, whereas short-term dependencies and autoregressive characteristic are ignored. In this paper, we propose a variant of Transformer named patches with 3D-temporal convolutional Transformer network (PTCT), where original frames are split into multiple patches to remove the constraint of inductive bias and 3D-temporal convolution is employed to capture short-term dependencies efficiently. After training, the inference of PTCT is performed in an autoregressive way to ensure the quality of generated radar echo frames. To validate our algorithm, we conduct experiments on two radar echo dataset: Radar Echo Guangzhou and HKO-7. The experimental results show that PTCT achieves state-of-the-art (SOTA) performance compared with existing methods.

arxiv情報

著者 Ziao Yang,Xiangrui Yang,Qifeng Lin
発行日 2022-06-03 04:50:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.MM パーマリンク