Self-supervised Spatial-Temporal Learner for Precipitation Nowcasting

要約

天気の短期予測であるナウキャスティングは、天候に応じた意思決定をタイムリーに行うために不可欠です。
具体的には、降水ナウキャスティングは、6 時間以内の地域レベルでの降水量を予測することを目的としています。
このタスクは、時空間シーケンス予測問題として組み立てることができ、深層学習手法が特に効果的です。
ただし、自己教師あり学習の進歩にもかかわらず、ナウキャスティングの成功した手法のほとんどは完全に教師付きのままです。
自己教師あり学習は、大規模なラベル付きデータを必要とせずにモデルを事前トレーニングして表現を学習する場合に有利です。
この研究では、自己教師あり学習の利点を活用し、それを時空間学習と統合して、新しいモデルである SpaT-SparK を開発します。
SpaT-SparK は、マスク画像モデリング (MIM) タスクで事前学習された CNN ベースのエンコーダー/デコーダー構造と、下流タスクで過去および将来の降水マップ間の時間的関係をキャプチャする変換ネットワークで構成されます。
SpaT-SparK のパフォーマンスを評価するために、NL-50 データセットで実験を実施しました。
この結果は、SpaT-SparK が SmaAt-UNet などの既存のベースライン教師ありモデルよりも優れたパフォーマンスを示し、より正確なナウキャスティング予測を提供することを示しています。

要約(オリジナル)

Nowcasting, the short-term prediction of weather, is essential for making timely and weather-dependent decisions. Specifically, precipitation nowcasting aims to predict precipitation at a local level within a 6-hour time frame. This task can be framed as a spatial-temporal sequence forecasting problem, where deep learning methods have been particularly effective. However, despite advancements in self-supervised learning, most successful methods for nowcasting remain fully supervised. Self-supervised learning is advantageous for pretraining models to learn representations without requiring extensive labeled data. In this work, we leverage the benefits of self-supervised learning and integrate it with spatial-temporal learning to develop a novel model, SpaT-SparK. SpaT-SparK comprises a CNN-based encoder-decoder structure pretrained with a masked image modeling (MIM) task and a translation network that captures temporal relationships among past and future precipitation maps in downstream tasks. We conducted experiments on the NL-50 dataset to evaluate the performance of SpaT-SparK. The results demonstrate that SpaT-SparK outperforms existing baseline supervised models, such as SmaAt-UNet, providing more accurate nowcasting predictions.

arxiv情報

著者 Haotian Li,Arno Siebes,Siamak Mehrkanoon
発行日 2024-12-20 14:09:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク